Apparat - Rivista sulla nuova società. Leggi online "Intelligenza Artificiale"

8 Generale

Recensione di getAbstract

Secondo il futurista di Oxford Nick Bostrom, l’intelligenza artificiale può diventare uno strumento per garantire sicurezza, prosperità economica e sviluppo intellettuale, ma l’umanità potrebbe non essere in grado di realizzare il pieno potenziale di questo strumento. Bostrom critica passo dopo passo le insidie ​​intrinseche della percezione umana dell’intelligenza artificiale, e si ha la sensazione che gli esseri umani non abbiano né le risorse né l’immaginazione per comprendere la transizione da un mondo dominato dagli umani a un mondo minacciato o minacciato. già schiavizzato da qualche entità dotata di supermente. Bostrom descrive magistralmente come potrebbe nascere una tale superintelligenza, come si evolverebbe in un onnipotente “singleton” e la minaccia che rappresenterebbe. Ad esempio, cosa accadrebbe, si chiede, se questa intelligenza artificiale si sviluppasse al punto da formare un governo mondiale non guidato dai principi etici tradizionali? Informativo, ricco di riferimenti a varie fonti, il libro incoraggia il lettore a pensare a molte incognite. Il ragionamento dell'autore si basa sull'analisi di tutta una serie di possibili scenari futuri. Questo studio approfondito è destinato principalmente ai lettori con un interesse speciale per l'argomento. getAbstract lo consiglia a politici, futuristi, studenti, investitori, filosofi e chiunque pensi all'alta tecnologia.

Dal riassunto del libro imparerai:

  • Come si sta evolvendo la tecnologia conosciuta come “intelligenza artificiale”;
  • Cosa suggeriscono gli scienziati per utilizzare e controllare l’intelligenza artificiale;
  • Perché l’umanità non è pronta ad affrontare l’intelligenza artificiale.

Informazioni sull'autore

Nick Bostrom– Professore all’Università di Oxford, direttore fondatore dell’Institute for the Future of Humanity.

Prospettive per l'emergere della superintelligenza

Nell'estate del 1956, un gruppo di scienziati si riunì al Dartmouth College per studiare le prospettive dello sviluppo umano. A loro interessava soprattutto se le macchine potessero riprodurre le funzioni dell’intelligenza umana. La ricerca su questo argomento è continuata con successo variabile. Negli anni ’80 iniziarono a svilupparsi programmi basati su regole, o “sistemi esperti”, e cominciò a sembrare che le tecnologie che potevano essere utilizzate per creare intelligenza artificiale fossero sul punto di fiorire. Poi i progressi si sono arrestati e i finanziamenti si sono esauriti. Gli sforzi sull’intelligenza artificiale hanno ricevuto nuovo impulso negli anni ’90 con l’avvento degli “algoritmi genetici” e delle “reti neurali”.

Una misura della potenza dell'intelligenza artificiale è data dalla capacità dei computer appositamente progettati di riprodurre giochi come scacchi, bridge, Scrabble, Go e curiosità. Tra circa 10 anni, un computer con algoritmi avanzati sarà in grado di sconfiggere il campione del mondo di Go. Oltre ai giochi, tecnologie simili vengono utilizzate negli apparecchi acustici, nei dispositivi di riconoscimento facciale e vocale, nella navigazione, nella diagnostica, nella pianificazione, nella logistica, nonché nella creazione di robot industriali le cui funzionalità...

Recentemente, il fondatore di Tesla Motors e SpaceX, Elon Musk, ha creato l'intelligenza artificiale per evocare un demone che sarebbe impossibile da controllare. Musk condivide il suo scetticismo con il filosofo britannico Nick Bostrom, il cui ultimo libro “Superintelligence: Paths, Dangers, Strategies” l'uomo d'affari ha consigliato ai suoi follower su Twitter. Mentre alcuni futurologi prevedono un futuro confortevole per le persone come risultato della diffusa sostituzione del lavoro umano con il lavoro meccanico, Nick Bostrom vede l’intelligenza artificiale come una minaccia all’esistenza dell’intera specie. Apparat ha conosciuto le idee di Nick Bostrom e ha scoperto come, secondo lui, l'umanità può essere salvata.

Nick Bostrom
Filosofo e professore all'Università di Oxford

Diversi anni fa la rivista Foreign Policy lo ha incluso nella lista dei 100 pensatori più importanti del pianeta. Nick Bostrom crede nel dare potere alle persone attraverso la tecnologia. Nel 1998 ha fondato la World Transhumanist Association (ora chiamata Humanity+) per lottare per il riconoscimento del transumanesimo come campo di conoscenza scientifica a pieno titolo. Bostrom ha guadagnato fama al di fuori dei circoli accademici quando ha descritto il concetto di estinzione umana nel libro Rischi catastrofici globali. Bostrom è direttore dell'Oxford Future of Humanity Institute. Ora sta cercando di attirare l'attenzione del pubblico su un'altra minaccia per la nostra civiltà: la superintelligenza.

L’intelligenza artificiale diventerà presto più intelligente di noi

Per Nick Bostrom non importa quale area della conoscenza ci porterà alla creazione della superintelligenza. Che si tratti di programmatori che hanno scritto un programma in grado di pensare, o di neuroscienziati, ricreato cervello umano funzionante. La cosa principale è che ciò avverrà più velocemente di quanto pensiamo. La maggior parte degli esperti intervistati da Bostrom prevede la creazione di un’intelligenza artificiale intelligente entro il 2040 o il 2050.

L’intelligenza artificiale è già superiore a quella umana in molti ambiti. Così, da molti anni, diversi tipi di intelligenza artificiale sconfiggono i campioni di vari tornei di gioco, siano essi di scacchi o di poker. Tali risultati potrebbero non sembrare particolarmente impressionanti, ma ciò è dovuto al fatto che le nostre richieste di novità si adattano rapidamente al progresso.

Grazie alla capacità di autoapprendimento, l’intelligenza artificiale si trasformerà in superintelligenza

Secondo Bostrom, l’intelligenza artificiale inizialmente assomiglierà al cervello di un bambino. E come un bambino, potrà imparare. Le persone smetteranno di cercare di inserire quante più informazioni possibili nel programma e gli insegneranno a comprendere il mondo che lo circonda. L'esistenza della superintelligenza sarà possibile attraverso il costante auto-miglioramento.

Per noi è importante creare un’intelligenza artificiale sufficientemente intelligente da imparare dai propri errori. Sarà in grado di migliorarsi all'infinito. La prima versione potrà crearne una seconda, che sarà migliore, e la seconda, essendo più intelligente dell'originale, ne creerà una terza ancora più avanzata, e così via. In determinate condizioni, questo processo di auto-miglioramento può essere ripetuto fino a raggiungere un'esplosione intellettuale, il momento in cui il livello intellettuale del sistema salta in breve tempo da un livello relativamente modesto al livello di superintelligenza.

La superintelligenza avrà i propri bisogni e obiettivi

Il modo in cui penserà l’intelligenza artificiale sarà diverso dal nostro. Nick Bostrom non sta cercando di prevedere esattamente come funzionerà la motivazione della superintelligenza. Ma qualunque siano i suoi obiettivi, avrà bisogno di risorse per raggiungerli.

L’intelligenza artificiale potrebbe essere meno umana di un alieno. Non sorprende che qualsiasi alieno intelligente possa essere motivato all’azione da fattori come la fame, la temperatura, le ferite, le malattie, la minaccia alla vita o il desiderio di avere figli. L’intelligenza artificiale, infatti, non sarà interessata a nulla di quanto sopra. Si può immaginare l'esistenza di un'intelligenza artificiale il cui unico obiettivo finale sarebbe contare tutti i granelli di sabbia dell'isola di Boracay o trovare la rappresentazione decimale del numero π.

La superintelligenza cercherà di usare le persone contro la loro volontà

Per avere accesso alle risorse, la superintelligenza cercherà di trovare un intermediario. Secondo Bostrom, anche senza una connessione di rete o la capacità di essere fisicamente attivi, la superintelligenza sarà comunque in grado di raggiungere i suoi obiettivi. Perché anche quando raggiungeremo la maturità tecnologica, cioè creeremo tutte le tecnologie che si possono creare, il nostro principale punto debole saremo ancora noi stessi.

L'uomo è il sistema più inaffidabile. Oggi gli hacker spesso si rivolgono ai principi dell'ingegneria sociale per ottenere l'accesso al computer di qualcun altro. E se l'hacker manipolatore risulta essere una superintelligenza, allora possiamo supporre che troverà facilmente un complice o semplicemente inizierà a usarci contro la nostra volontà come braccia e gambe.

La superintelligenza potrebbe “volere” rimanere l’unica intelligenza

Alcuni filosofi e scienziati vedono nell’intelligenza artificiale solo uno strumento per migliorare la qualità della nostra vita. Tra questi c'è il filosofo americano John Searle: ritiene impossibile l'emergere dell'autocoscienza nelle macchine, poiché ciò richiede la presenza di processi fisici e chimici simili a quelli che avvengono nel cervello umano. Tuttavia, Bostrom ritiene che a un certo punto la superintelligenza cesserà di essere uno strumento, ma si rivelerà un essere a tutti gli effetti con i propri bisogni, e la preoccupazione per la conservazione della razza umana potrebbe non essere una di queste. Saremo solo un ostacolo sul suo cammino.

L'uomo stesso è una risorsa utile (atomi opportunamente raggruppati) e la sua sopravvivenza e prosperità dipendono da altre risorse. Lo sviluppo dell’intelligenza artificiale che necessita di queste risorse potrebbe facilmente portare all’estinzione dell’umanità. Verrà quindi il momento di una società tecnologicamente altamente sviluppata, comprendente molte strutture complesse, molte delle quali saranno più intelligenti di qualsiasi cosa esista oggi sul pianeta. Questo sarà un periodo di miracoli economici e tecnologici. Ma non ci sarà più nessuno che possa approfittarne. Disneyland regnerà sulla Terra, nella quale non ci saranno più bambini.

L’umanità deve imparare a tenere sotto controllo la tecnologia

Nick Bostrom non nega la possibilità di creare un'intelligenza artificiale amica o di controllarla. Dopotutto, ammette il filosofo, abbiamo davvero bisogno di tecnologie intelligenti che ci aiutino ad affrontare problemi urgenti. L’unica questione è ridurre i rischi, soprattutto il rischio di estinzione.

Se un'esplosione intellettuale ci minaccia di estinzione, allora dobbiamo capire se possiamo controllare il processo di detonazione. Oggi avrebbe più senso accelerare gli sforzi per risolvere il problema del controllo piuttosto che sospendere la ricerca nel campo dell’intelligenza artificiale. Ma per ora sei persone stanno lavorando per risolvere il problema del controllo, mentre decine, se non centinaia di migliaia, stanno lavorando alla creazione di un’intelligenza artificiale.

Consapevole significa armato

L’umanità non è ancora pronta per incontrare la superintelligenza e non lo sarà prima di molti anni, osserva Bostrom. Ma anche se il salto intellettuale potrebbe non avvenire per un bel po’ di tempo, dobbiamo prestare attenzione ai possibili problemi adesso. Molti scienziati, nel tentativo di creare una superintelligenza, dimenticano i pericoli.

La cosa più sensata per un bambino con una bomba ad orologeria tra le mani sarebbe posizionare con cura la bomba sul pavimento, correre velocemente fuori dalla stanza e chiamare un adulto. Ma cosa succederebbe se tutta la nostra stanza fosse piena di bambini e ogni bambino avesse un facile accesso al grilletto? Le possibilità che tutti noi mettiamo giù un giocattolo pericoloso sono estremamente basse. Qualche piccolo idiota è destinato a premere il pulsante solo per vedere cosa succede.

Cosa accadrà se le macchine supereranno gli umani in intelligenza? Ci aiuteranno o distruggeranno la razza umana? Possiamo oggi ignorare il problema dello sviluppo dell’intelligenza artificiale e sentirci completamente al sicuro?

Nel suo libro, Nick Bostrom cerca di comprendere il problema che l'umanità deve affrontare in relazione alla prospettiva dell'emergere della superintelligenza e di analizzarne la risposta.

Caratteristiche del libro

Data di scrittura: 2014
Nome: . Fasi. Minacce. Strategie

Volume: 760 pagine, 69 illustrazioni
ISBN: 978-5-00057-810-0
Traduttore: Sergey Filin
Titolare del copyright: Mann, Ivanov e Ferber

Prefazione al libro “Intelligenza Artificiale”

L'autore ritiene che la minaccia mortale sia associata alla possibilità di creare un'intelligenza artificiale che superi la mente umana. Una catastrofe potrebbe scoppiare sia alla fine del 21° secolo che nei prossimi decenni. L'intera storia dell'umanità dimostra: quando si verifica una collisione tra un rappresentante della nostra specie, l'Homo sapiens, e chiunque altro abita il nostro pianeta, vince chi è più intelligente. Finora siamo stati i più intelligenti, ma non abbiamo alcuna garanzia che ciò duri per sempre.

Nick Bostrom scrive che se gli algoritmi dei computer intelligenti imparano a creare in modo indipendente algoritmi ancora più intelligenti, e questi, a loro volta, ancora più intelligenti, ci sarà una crescita esplosiva dell'intelligenza artificiale, rispetto alla quale le persone ora sembreranno più o meno formiche accanto alle persone, in senso intellettuale, ovviamente. Una nuova specie, anche se artificiale, ma superintelligente apparirà nel mondo. Non importa cosa "mi viene in mente", un tentativo di rendere felici tutte le persone o la decisione di fermare l'inquinamento antropogenico degli oceani del mondo nel modo più efficace, cioè distruggendo l'umanità, le persone non saranno ancora in grado di farlo resistere a questo. Nessuna possibilità di uno scontro nello spirito del film Terminator, nessuna sparatoria con cyborg di ferro. Ci aspetta lo scacco matto, come in un duello tra il computer degli scacchi "Deep Blue" e un bambino di prima elementare.

Negli ultimi cento o due anni, le conquiste della scienza hanno risvegliato in alcuni la speranza di risolvere tutti i problemi dell'umanità, mentre in altri hanno causato e continuano a causare una paura sfrenata. Allo stesso tempo, va detto che entrambi i punti di vista sembrano abbastanza giustificati. Grazie alla scienza, malattie terribili sono state sconfitte, l'umanità oggi è in grado di nutrire un numero di persone senza precedenti e da un punto del globo si può arrivare al punto opposto in meno di un giorno. Tuttavia, per la grazia della stessa scienza, le persone, utilizzando le ultime tecnologie militari, si distruggono a vicenda con mostruosa velocità ed efficienza.

Stiamo osservando una tendenza simile - quando il rapido sviluppo della tecnologia non solo porta alla formazione di nuove opportunità, ma crea anche minacce senza precedenti - nel campo della sicurezza delle informazioni. La nostra intera industria è nata ed esiste unicamente perché la creazione e la distribuzione di massa di cose meravigliose come i computer e Internet hanno creato problemi che sarebbero stati inimmaginabili nell’era pre-informatica. Come risultato dell'avvento della tecnologia dell'informazione, si è verificata una rivoluzione nelle comunicazioni umane. È stato utilizzato anche da vari tipi di criminali informatici. E solo ora l’umanità comincia gradualmente a rendersi conto di nuovi rischi: sempre più oggetti del mondo fisico sono controllati tramite computer e software, spesso imperfetti, pieni di buchi e vulnerabili; Con un numero sempre maggiore di questi oggetti connessi a Internet, le minacce provenienti dal mondo cibernetico stanno rapidamente diventando problemi di sicurezza fisica e potenzialmente questioni di vita o di morte.

Questo è ciò che rende il libro di Nick Bostrom così interessante. Il primo passo per prevenire scenari da incubo (per una singola rete informatica o per l’intera umanità) è capire quali potrebbero essere. Bostrom nutre molte riserve sul fatto che la creazione di un'intelligenza artificiale paragonabile o superiore alla mente umana - un'intelligenza artificiale capace di distruggere l'umanità - sia solo uno scenario probabile che potrebbe non realizzarsi. Naturalmente, ci sono molte opzioni, e lo sviluppo della tecnologia informatica forse non distruggerà l'umanità, ma ci darà la risposta alla "domanda principale sulla vita, sull'Universo e su tutto" (forse sarà davvero il numero 42, come in il romanzo “Guida galattica per gli autostoppisti”). C'è speranza, ma il pericolo è molto serio, avverte Bostrom. A mio avviso, se esiste la possibilità di una tale minaccia esistenziale per l’umanità, allora deve essere trattata di conseguenza e, per prevenirla e proteggersi da essa, dovrebbero essere compiuti sforzi congiunti su scala globale.

Introduzione

All'interno del nostro cranio c'è una certa sostanza grazie alla quale possiamo, ad esempio, leggere. Questa sostanza, il cervello umano, è dotata di capacità assenti in altri mammiferi. In realtà, le persone devono la loro posizione dominante sul pianeta proprio a queste caratteristiche. Alcuni animali si distinguono per muscoli potenti e zanne affilate, ma nessuna creatura vivente, tranne gli umani, è dotata di una mente così perfetta. Grazie al nostro livello intellettuale più elevato, siamo stati in grado di creare strumenti come il linguaggio, la tecnologia e l'organizzazione sociale complessa. Nel corso del tempo, il nostro vantaggio non ha fatto altro che rafforzarsi e ampliarsi, man mano che ogni nuova generazione, basandosi sui risultati dei suoi predecessori, andava avanti.

Se mai verrà sviluppata un’intelligenza artificiale che superi il livello generale di sviluppo della mente umana, allora nel mondo apparirà un’intelligenza super potente. E quindi il destino della nostra specie dipenderà direttamente dalle azioni di questi sistemi tecnici intelligenti, proprio come il destino dei gorilla oggi è in gran parte determinato non dai primati stessi, ma dalle intenzioni umane.

Tuttavia, l’umanità ha un vantaggio innegabile, poiché crea sistemi tecnici intelligenti. In linea di principio, chi ti impedisce di inventare una superintelligenza che prenderà sotto la sua protezione i valori umani universali? Naturalmente abbiamo ottime ragioni per proteggerci. In termini pratici, dovremo affrontare la questione più difficile del controllo: come controllare i piani e le azioni della superintelligenza. Inoltre, le persone potranno utilizzare un'unica possibilità. Non appena apparirà un’intelligenza artificiale (AI) ostile, inizierà immediatamente a interferire con i nostri sforzi per sbarazzarcene o almeno modificarne le impostazioni. E allora il destino dell’umanità sarà segnato.

Nel mio libro cerco di comprendere il problema che le persone affrontano con la prospettiva della superintelligenza e di analizzare la loro risposta. Forse ci aspetta il programma più serio e spaventoso che l’umanità abbia mai ricevuto. E indipendentemente dal fatto che vinciamo o perdiamo, è possibile che questa sfida sarà l’ultima. Non sto presentando qui alcun argomento a favore dell’una o dell’altra versione: siamo sull’orlo di un grande passo avanti nella creazione dell’intelligenza artificiale; È possibile prevedere con una certa precisione quando avrà luogo un determinato evento rivoluzionario? Molto probabilmente - in questo secolo. È improbabile che qualcuno nomini una scadenza più specifica.

Intelligenza artificiale. Fasi. Minacce. Strategie - Nick Bostrom (scarica)

(frammento introduttivo del libro)

Nick Bostrom

Intelligenza artificiale. Fasi. Minacce. Strategie

Nick Bostrom

Superintelligenza

Percorsi, pericoli, strategie


Redattori scientifici M. S. Burtsev, E. D. Kazimirova, A. B. Lavrentiev


Pubblicato con il permesso dell'Agenzia Alexander Korzhenevski


Il supporto legale per la casa editrice è fornito dallo studio legale Vegas-Lex.


Questo libro è stato originariamente pubblicato in inglese nel 2014. Questa traduzione è pubblicata previo accordo con la Oxford University Press. L'editore è l'unico responsabile di questa traduzione dall'opera originale e Oxford University Press non avrà alcuna responsabilità per eventuali errori, omissioni, imprecisioni o ambiguità in tale traduzione o per eventuali perdite causate dall'affidamento su di essa.


© Nick Bostrom, 2014

© Traduzione in russo, pubblicazione in russo, design. Mann, Ivanov e Ferber LLC, 2016

* * *

Questo libro si integra bene

Teoria dei giochi

Avinash Dixit e Barry Nalbuff


Ken Jennings


Piacere x

Stefano Strogatz

Prefazione del socio

...Ho un amico", ha detto Edik. “Sostiene che l'uomo è un anello intermedio di cui la natura ha bisogno per creare la corona della creazione: un bicchiere di cognac con una fetta di limone.

Arkady e Boris Strugatsky. Il lunedì inizia sabato

L'autore ritiene che la minaccia mortale sia associata alla possibilità di creare un'intelligenza artificiale che superi la mente umana. Una catastrofe potrebbe scoppiare sia alla fine del 21° secolo che nei prossimi decenni. L'intera storia dell'umanità dimostra: quando si verifica una collisione tra un rappresentante della nostra specie, l'Homo sapiens, e chiunque altro abita il nostro pianeta, vince chi è più intelligente. Finora siamo stati i più intelligenti, ma non abbiamo alcuna garanzia che ciò duri per sempre.

Nick Bostrom scrive che se gli algoritmi dei computer intelligenti imparano a creare in modo indipendente algoritmi ancora più intelligenti, e questi, a loro volta, ancora più intelligenti, ci sarà una crescita esplosiva dell'intelligenza artificiale, rispetto alla quale le persone ora sembreranno più o meno formiche accanto alle persone, in senso intellettuale, ovviamente. Una nuova specie, anche se artificiale, ma superintelligente apparirà nel mondo. Non importa cosa gli viene in mente, un tentativo di rendere felici tutte le persone o la decisione di fermare l'inquinamento antropogenico degli oceani del mondo nel modo più efficace, cioè distruggendo l'umanità, le persone non saranno ancora in grado di resistere Questo. Nessuna possibilità di uno scontro nello spirito del film Terminator, nessuna sparatoria con cyborg di ferro. Ci aspetta lo scacco matto, come in un duello tra il computer degli scacchi "Deep Blue" e un bambino di prima elementare.

Negli ultimi cento o due anni, le conquiste della scienza hanno risvegliato in alcuni la speranza di risolvere tutti i problemi dell'umanità, mentre in altri hanno causato e continuano a causare una paura sfrenata. Allo stesso tempo, va detto che entrambi i punti di vista sembrano abbastanza giustificati. Grazie alla scienza, malattie terribili sono state sconfitte, l'umanità oggi è in grado di nutrire un numero di persone senza precedenti e da un punto del globo si può arrivare al punto opposto in meno di un giorno. Tuttavia, per la grazia della stessa scienza, le persone, utilizzando le ultime tecnologie militari, si distruggono a vicenda con mostruosa velocità ed efficienza.

Una tendenza simile - quando il rapido sviluppo della tecnologia non solo porta alla formazione di nuove opportunità, ma crea anche minacce senza precedenti - stiamo osservando nel campo della sicurezza delle informazioni. La nostra intera industria è nata ed esiste unicamente perché la creazione e la distribuzione di massa di cose meravigliose come i computer e Internet hanno creato problemi che sarebbero stati inimmaginabili nell’era pre-informatica. Come risultato dell'avvento della tecnologia dell'informazione, si è verificata una rivoluzione nelle comunicazioni umane. È stato utilizzato anche da vari tipi di criminali informatici. E solo ora l’umanità comincia gradualmente a rendersi conto di nuovi rischi: sempre più oggetti del mondo fisico sono controllati tramite computer e software, spesso imperfetti, pieni di buchi e vulnerabili; Con un numero sempre maggiore di questi oggetti connessi a Internet, le minacce provenienti dal mondo cibernetico stanno rapidamente diventando problemi di sicurezza fisica e potenzialmente questioni di vita o di morte.

Questo è ciò che rende il libro di Nick Bostrom così interessante. Il primo passo per prevenire scenari da incubo (per una singola rete informatica o per l’intera umanità) è capire quali potrebbero essere. Bostrom nutre molte riserve sul fatto che la creazione di un’intelligenza artificiale paragonabile o superiore alla mente umana – un’intelligenza artificiale in grado di distruggere l’umanità – sia solo uno scenario probabile che potrebbe non realizzarsi. Naturalmente, ci sono molte opzioni, e lo sviluppo della tecnologia informatica forse non distruggerà l'umanità, ma ci darà la risposta alla "domanda principale sulla vita, sull'Universo e su tutto" (forse sarà davvero il numero 42, come in il romanzo “Guida galattica per gli autostoppisti”). C'è speranza, ma il pericolo è molto serio, avverte Bostrom. A mio avviso, se esiste la possibilità di una tale minaccia esistenziale per l’umanità, allora deve essere trattata di conseguenza e, per prevenirla e proteggersi da essa, dovrebbero essere compiuti sforzi congiunti su scala globale.

Vorrei concludere la mia introduzione con una citazione dal libro di Mikhail Weller “L’uomo nel sistema”:

Quando la fantascienza, cioè il pensiero umano incorniciato in immagini e trame, ripete qualcosa per molto tempo e in dettaglio, beh, non c'è fumo senza fuoco. I banali film d'azione di Hollywood sulle guerre tra le persone e la civiltà dei robot contengono un amaro granello di verità sotto il guscio della visione commerciale.

Quando un programma trasferibile di istinti sarà incorporato nei robot, e la soddisfazione di questi istinti sarà incorporata come un bisogno incondizionato e fondamentale, e questo raggiungerà il livello di auto-riproduzione, allora, ragazzi, smettetela di combattere il fumo e l'alcol, perché sarà il momento di bere e fumare prima di Hana per tutti noi.

Evgenij Kasperskij,Direttore Generale di Kaspersky Lab

La storia incompiuta dei passeri

Un giorno, nel bel mezzo della nidificazione, i passeri, stanchi di tante giornate di duro lavoro, si sedettero a riposarsi al tramonto e chiacchierarono del più e del meno.

“Siamo così piccoli, così deboli”. Immagina quanto sarebbe più semplice la vita se avessimo un gufo come nostro assistente! – cinguettò sognante un passerotto. - Potrebbe costruirci dei nidi...

- Sì! – concordò un altro. – E prenditi cura anche dei nostri vecchi e dei nostri pulcini...

"E istruiscici e proteggici dal gatto del vicino", ha aggiunto un terzo.

Allora Pastus, il passerotto più anziano, suggerì:

– Lascia che gli esploratori volino in diverse direzioni alla ricerca della civetta caduta dal nido. Tuttavia, andranno bene un uovo di gufo, un corvo e persino un cucciolo di donnola. Questa scoperta si rivelerà il più grande successo per il nostro gregge! Come quella volta in cui abbiamo scoperto una fonte inesauribile di grano nel nostro cortile.

I passeri, seriamente eccitati, cinguettavano più forte che potevano.

E solo Skronfinkle con un occhio solo, un passero caustico dal temperamento difficile, sembrava dubitare dell'opportunità di questa impresa.

“Abbiamo scelto una strada disastrosa”, ha detto con convinzione. – Non dovresti prima studiare seriamente le questioni relative all’addomesticamento e all’addomesticamento dei gufi prima di consentire una creatura così pericolosa nel tuo ambiente?

"Mi sembra", gli obiettò Pastus, "l'arte di domare i gufi non è un compito facile." Trovare un uovo di gufo è dannatamente difficile. Allora cominciamo con la ricerca. Una volta che saremo riusciti ad allevare una civetta, penseremo ai problemi dell'educazione.

- Un piano malvagio! Scronfinkle cinguettò nervosamente.

Ma nessuno lo ascoltava più. Sotto la direzione di Pastus, lo stormo di passeri si alzò in aria e partì.

Nick Bostrom

Superintelligenza

Percorsi, pericoli, strategie

Redattori scientifici M. S. Burtsev, E. D. Kazimirova, A. B. Lavrentiev

Pubblicato con il permesso dell'Agenzia Alexander Korzhenevski

Il supporto legale per la casa editrice è fornito dallo studio legale Vegas-Lex.

Questo libro è stato originariamente pubblicato in inglese nel 2014. Questa traduzione è pubblicata previo accordo con la Oxford University Press. L'editore è l'unico responsabile di questa traduzione dall'opera originale e Oxford University Press non avrà alcuna responsabilità per eventuali errori, omissioni, imprecisioni o ambiguità in tale traduzione o per eventuali perdite causate dall'affidamento su di essa.

© Nick Bostrom, 2014

© Traduzione in russo, pubblicazione in russo, design. Mann, Ivanov e Ferber LLC, 2016

Questo libro si integra bene

Avinash Dixit e Barry Nalbuff

Ken Jennings

Stefano Strogatz

Prefazione del socio

...Ho un amico", ha detto Edik. “Sostiene che l'uomo è un anello intermedio di cui la natura ha bisogno per creare la corona della creazione: un bicchiere di cognac con una fetta di limone.

Arkady e Boris Strugatsky. Il lunedì inizia sabato

L'autore ritiene che la minaccia mortale sia associata alla possibilità di creare un'intelligenza artificiale che superi la mente umana. Una catastrofe potrebbe scoppiare sia alla fine del 21° secolo che nei prossimi decenni. L'intera storia dell'umanità dimostra: quando si verifica una collisione tra un rappresentante della nostra specie, l'Homo sapiens, e chiunque altro abita il nostro pianeta, vince chi è più intelligente. Finora siamo stati i più intelligenti, ma non abbiamo alcuna garanzia che ciò duri per sempre.

Nick Bostrom scrive che se gli algoritmi dei computer intelligenti imparano a creare in modo indipendente algoritmi ancora più intelligenti, e questi, a loro volta, ancora più intelligenti, ci sarà una crescita esplosiva dell'intelligenza artificiale, rispetto alla quale le persone ora sembreranno più o meno formiche accanto alle persone, in senso intellettuale, ovviamente. Una nuova specie, anche se artificiale, ma superintelligente apparirà nel mondo. Non importa cosa gli viene in mente, un tentativo di rendere felici tutte le persone o la decisione di fermare l'inquinamento antropogenico degli oceani del mondo nel modo più efficace, cioè distruggendo l'umanità, le persone non saranno ancora in grado di resistere Questo. Nessuna possibilità di uno scontro nello spirito del film Terminator, nessuna sparatoria con cyborg di ferro. Ci aspetta lo scacco matto, come in un duello tra il computer degli scacchi "Deep Blue" e un bambino di prima elementare.

Negli ultimi cento o due anni, le conquiste della scienza hanno risvegliato in alcuni la speranza di risolvere tutti i problemi dell'umanità, mentre in altri hanno causato e continuano a causare una paura sfrenata. Allo stesso tempo, va detto che entrambi i punti di vista sembrano abbastanza giustificati. Grazie alla scienza, malattie terribili sono state sconfitte, l'umanità oggi è in grado di nutrire un numero di persone senza precedenti e da un punto del globo si può arrivare al punto opposto in meno di un giorno. Tuttavia, per la grazia della stessa scienza, le persone, utilizzando le ultime tecnologie militari, si distruggono a vicenda con mostruosa velocità ed efficienza.

Una tendenza simile - quando il rapido sviluppo della tecnologia non solo porta alla formazione di nuove opportunità, ma crea anche minacce senza precedenti - stiamo osservando nel campo della sicurezza delle informazioni. La nostra intera industria è nata ed esiste unicamente perché la creazione e la distribuzione di massa di cose meravigliose come i computer e Internet hanno creato problemi che sarebbero stati inimmaginabili nell’era pre-informatica. Come risultato dell'avvento della tecnologia dell'informazione, si è verificata una rivoluzione nelle comunicazioni umane. È stato utilizzato anche da vari tipi di criminali informatici. E solo ora l’umanità comincia gradualmente a rendersi conto di nuovi rischi: sempre più oggetti del mondo fisico sono controllati tramite computer e software, spesso imperfetti, pieni di buchi e vulnerabili; Con un numero sempre maggiore di questi oggetti connessi a Internet, le minacce provenienti dal mondo cibernetico stanno rapidamente diventando problemi di sicurezza fisica e potenzialmente questioni di vita o di morte.

Questo è ciò che rende il libro di Nick Bostrom così interessante. Il primo passo per prevenire scenari da incubo (per una singola rete informatica o per l’intera umanità) è capire quali potrebbero essere. Bostrom nutre molte riserve sul fatto che la creazione di un’intelligenza artificiale paragonabile o superiore alla mente umana – un’intelligenza artificiale in grado di distruggere l’umanità – sia solo uno scenario probabile che potrebbe non realizzarsi. Naturalmente, ci sono molte opzioni, e lo sviluppo della tecnologia informatica forse non distruggerà l'umanità, ma ci darà la risposta alla "domanda principale sulla vita, sull'Universo e su tutto" (forse sarà davvero il numero 42, come in il romanzo “Guida galattica per gli autostoppisti”). C'è speranza, ma il pericolo è molto serio, avverte Bostrom. A mio avviso, se esiste la possibilità di una tale minaccia esistenziale per l’umanità, allora deve essere trattata di conseguenza e, per prevenirla e proteggersi da essa, dovrebbero essere compiuti sforzi congiunti su scala globale.

Vorrei concludere la mia introduzione con una citazione dal libro di Mikhail Weller “L’uomo nel sistema”:

Quando la fantascienza, cioè il pensiero umano incorniciato in immagini e trame, ripete qualcosa per molto tempo e in dettaglio, beh, non c'è fumo senza fuoco. I banali film d'azione di Hollywood sulle guerre tra le persone e la civiltà dei robot contengono un amaro granello di verità sotto il guscio della visione commerciale.

Quando un programma trasferibile di istinti sarà incorporato nei robot, e la soddisfazione di questi istinti sarà incorporata come un bisogno incondizionato e fondamentale, e questo raggiungerà il livello di auto-riproduzione, allora, ragazzi, smettetela di combattere il fumo e l'alcol, perché sarà il momento di bere e fumare prima di Hana per tutti noi.

Evgenij Kasperskij,

Direttore Generale di Kaspersky Lab

La storia incompiuta dei passeri

Un giorno, nel bel mezzo della nidificazione, i passeri, stanchi di tante giornate di duro lavoro, si sedettero a riposarsi al tramonto e chiacchierarono del più e del meno.

“Siamo così piccoli, così deboli”. Immagina quanto sarebbe più semplice la vita se avessimo un gufo come nostro assistente! – cinguettò sognante un passerotto. - Potrebbe costruirci dei nidi...