|
..........................
|
|
..........................
|
|
|
|
| |
Buscadero, Dicembre 2024
E' disponibile il nuovo numero del Buscadero!
Per chi fosse interessato all'acquisto del giornale
7.00 € (+ 1.00 € di spedizione)
pagamento con carta di credito.
(Il giornale sarà spedito con la modalitá "piego di libri" di Poste Italiane)
Info
0331 792508
info@carudischi.com
| |
|
| Collane
Vendiamo solo vinili nuovi, non trattiamo l'usato Tutto quello che appare sul sito è disponibile |
| OFFERTA SPECIALE!!!
Sconto 20% * *escluse le novitá
| |
| |
Superintelligenza Tendenze Pericoli, Strategie Autore:Bostrom Nick
EAN: 9788833929019 Editore: Bollati Boringhieri Collana: Saggi. Filosofia Formato: libri
28.00 € -20% 22.40 €
NON DISPONIBILE
| nel gennaio 2015 nick bostrom e` stato cofirmatario, assieme tra gli altri a stephen hawking, di una celebre lettera aperta che metteva in guardia sui potenziali pericoli dell`intelligenza artificiale. non ha firmato quell`appello per passatismo, ne` tantomeno per luddismo, bensi` in virtu` di un lineare ragionamento filosofico. l`intelligenza artificiale e` una delle piu` grandi promesse dell`umanita`; grazie ai suoi sviluppi, attuali e futuri, saremo probabilmente in grado di fare cose che oggi sarebbero impensabili, vivremo meglio, e magari piu` a lungo e piu` felici. e tuttavia c`e` una nube minacciosa sopra il cielo dell`intelligenza artificiale, e con questo libro nick bostrom e` stato il primo a vederla e ad analizzarla, lanciando un allarme che ha avuto un`eco vastissima in tutto il mondo. siamo proprio certi che riusciremo a governare senza problemi una macchina dopo che l`avremo costruita? se lo scopo dell`attuale ricerca sull`intelligenza artificiale e` quello di costruire delle macchine fornite di un`intelligenza generale paragonabile a quella umana, quanto tempo occorrera` a quelle macchine, una volta costruite, per superare e surclassare le nostre capacita` intellettive? poco, ci informa bostrom, pochissimo. una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine bastera` un piccolo passo per esponenzialmente, dando origine a superintelligenze che per noi risulteranno rapidamente inarrivabili. a quel punto le nostre creature potrebbero scapparci di mano, non necessariamente per , ma anche solo come effetto collaterale della loro attivita`. potrebbero arrivare a distruggerci o addirittura a distruggere il mondo intero. per questo - sostiene bostrom - dobbiamo preoccuparcene ora. per non rinunciare ai benefici che l`intelligenza artificiale potra` apportare, e` necessario che la ricerca tecnologica si ponga adesso le domande che questo libro pone con enorme chiarezza e chiaroveggenz |
|
|
| |