L’articolo originale si trova qui.
Innanzitutto, una breve descrizione di cosa sia l'IA
È l'applicazione della matematica e del codice software per insegnare ai computer come comprendere, sintetizzare e generare conoscenza in modi simili a come lo fanno le persone. L'intelligenza artificiale è un programma per computer come qualsiasi altro: funziona, accetta input, elabora e genera output. L'output dell'intelligenza artificiale è utile in un'ampia gamma di campi, dalla programmazione alla medicina, dalla legge alle arti creative. È di proprietà di persone e controllato da persone, come qualsiasi altra tecnologia.
Una descrizione più breve di ciò che l'IA non è: software killer e robot che prenderanno vita e decideranno di uccidere la razza umana o altrimenti rovinare tutto, come si vede nei film.
Una descrizione ancora più breve di cosa potrebbe essere l'IA: un modo per migliorare tutto ciò a cui teniamo.
Perché l'intelligenza artificiale può migliorare tutto ciò che ci interessa
La conclusione fondamentale più convalidata delle scienze sociali in molti decenni e migliaia di studi è che l'intelligenza umana migliora una gamma molto ampia di esiti della vita. Le persone più intelligenti ottengono risultati migliori in quasi tutti i settori di attività: rendimento scolastico, rendimento lavorativo, stato occupazionale, reddito, creatività, salute fisica, longevità, apprendimento di nuove abilità, gestione di compiti complessi, leadership, successo imprenditoriale, risoluzione dei conflitti, comprensione della lettura, gestione finanziaria processo decisionale, comprensione delle prospettive degli altri, arti creative, risultati genitoriali e soddisfazione della vita.
Inoltre, l'intelligenza umana è la leva che abbiamo utilizzato per millenni per creare il mondo in cui viviamo oggi: scienza, tecnologia, matematica, fisica, chimica, medicina, energia, edilizia, trasporti, comunicazione, arte, musica, cultura, filosofia, etica, morale. Senza l'applicazione dell'intelligenza in tutti questi ambiti, vivremmo ancora tutti in capanne di fango, grattandoci una misera esistenza di agricoltura di sussistenza. Invece abbiamo usato la nostra intelligenza per aumentare il nostro tenore di vita dell'ordine di 10.000 volte negli ultimi 4.000 anni.
Ciò che l'intelligenza artificiale ci offre è l'opportunità di aumentare profondamente l'intelligenza umana per rendere tutti questi risultati dell'intelligenza - e molti altri, dalla creazione di nuovi farmaci ai modi per risolvere il cambiamento climatico alle tecnologie per raggiungere le stelle - molto, molto meglio da qui .
L'aumento IA dell'intelligenza umana è già iniziato: l'IA è già intorno a noi sotto forma di sistemi di controllo del computer di molti tipi, ora si sta rapidamente intensificando con i modelli di linguaggio di grandi dimensioni dell'IA come ChatGPT e accelererà molto rapidamente da qui, se lo permettiamo.
Nella nuova era dell'IA:
Ogni bambino avrà un tutor AI che è infinitamente paziente, infinitamente compassionevole, infinitamente ben informato, infinitamente utile. Il tutor AI sarà al fianco di ogni bambino in ogni fase del suo sviluppo, aiutandolo a massimizzare il proprio potenziale con la versione automatica dell'amore infinito.
Ogni persona avrà un assistente/coach/mentore/formatore/consulente/terapista di intelligenza artificiale che è infinitamente paziente, infinitamente compassionevole, infinitamente ben informato e infinitamente utile. L'assistente AI sarà presente in tutte le opportunità e le sfide della vita, massimizzando i risultati di ogni persona.
Ogni scienziato avrà un assistente/collaboratore/partner di intelligenza artificiale che amplierà notevolmente il proprio ambito di ricerca e risultati scientifici. Ogni artista, ogni ingegnere, ogni uomo d'affari, ogni medico, ogni assistente avrà lo stesso nei loro mondi.
Ogni leader di persone - amministratore delegato, funzionario governativo, presidente senza scopo di lucro, allenatore atletico, insegnante - avrà lo stesso. Gli effetti di ingrandimento di decisioni migliori da parte dei leader tra le persone che guidano sono enormi, quindi questo aumento dell'intelligenza potrebbe essere il più importante di tutti.
La crescita della produttività in tutta l'economia accelererà drasticamente, guidando la crescita economica, la creazione di nuove industrie, la creazione di nuovi posti di lavoro e la crescita dei salari, e dando luogo a una nuova era di accresciuta prosperità materiale in tutto il pianeta.
Le scoperte scientifiche, le nuove tecnologie e le medicine si espanderanno notevolmente, poiché l'IA ci aiuta a decodificare ulteriormente le leggi della natura e a raccoglierle a nostro vantaggio.
Le arti creative entreranno in un'età dell'oro, poiché artisti, musicisti, scrittori e cineasti potenziati dall'intelligenza artificiale acquisiranno la capacità di realizzare le loro visioni molto più velocemente e su scala più ampia che mai.
Penso persino che l'intelligenza artificiale migliorerà la guerra, quando deve accadere, riducendo drasticamente i tassi di mortalità in tempo di guerra. Ogni guerra è caratterizzata da decisioni terribili prese sotto un'intensa pressione e con informazioni nettamente limitate da leader umani molto limitati. Ora, i comandanti militari e i leader politici avranno consiglieri di intelligenza artificiale che li aiuteranno a prendere decisioni strategiche e tattiche molto migliori, riducendo al minimo i rischi, gli errori e gli spargimenti di sangue non necessari.
In breve, tutto ciò che le persone fanno con la loro intelligenza naturale oggi può essere fatto molto meglio con l'IA, e saremo in grado di affrontare nuove sfide che erano impossibili da affrontare senza l'IA, dalla cura di tutte le malattie al raggiungimento del viaggio interstellare.
E non si tratta solo di intelligenza! Forse la qualità più sottovalutata dell'IA è quanto può essere umanizzante. L'arte AI offre alle persone che altrimenti non avrebbero competenze tecniche la libertà di creare e condividere le proprie idee artistiche. Parlare con un amico IA empatico migliora davvero la loro capacità di gestire le avversità. E i chatbot medici AI sono già più empatici delle loro controparti umane. Piuttosto che rendere il mondo più duro e meccanico, l'intelligenza artificiale infinitamente paziente e comprensiva renderà il mondo più caldo e più piacevole.
La posta in gioco qui è alta. Le opportunità sono profonde. L'intelligenza artificiale è probabilmente la cosa più importante - e migliore - che la nostra civiltà abbia mai creato, certamente alla pari dell'elettricità e dei microchip, e probabilmente anche oltre.
Lo sviluppo e la proliferazione dell'intelligenza artificiale - lungi dall'essere un rischio che dovremmo temere - è un obbligo morale che abbiamo nei confronti di noi stessi, dei nostri figli e del nostro futuro.
Dovremmo vivere in un mondo molto migliore con l'intelligenza artificiale, e ora possiamo farlo.
Allora perché il panico?
In contrasto con questa visione positiva, la conversazione pubblica sull'intelligenza artificiale è attualmente attraversata da paura isterica e paranoia.
Sentiamo affermare che l'intelligenza artificiale ci ucciderà tutti in vari modi, rovinerà la nostra società, prenderà tutti i nostri posti di lavoro, causerà una disuguaglianza paralizzante e consentirà alle persone cattive di fare cose orribili.
Cosa spiega questa divergenza nei potenziali esiti dalla quasi utopia all'orribile distopia?
Storicamente, ogni nuova tecnologia che conta, dall'illuminazione elettrica alle automobili, dalla radio a Internet, ha scatenato un panico morale, un contagio sociale che convince le persone che la nuova tecnologia distruggerà il mondo, o la società, o entrambi. Quelli di Pessimist Archive hanno documentato questi panici morali guidati dalla tecnologia nel corso dei decenni; la loro storia rende il modello vividamente chiaro. Si scopre che questo panico attuale non è nemmeno il primo per l'IA.
Ora, è certamente vero che molte nuove tecnologie hanno portato a risultati negativi, spesso le stesse tecnologie che sono state altrimenti enormemente benefiche per il nostro benessere. Quindi non è che la semplice esistenza di un panico morale significhi che non c'è nulla di cui preoccuparsi.
Ma un panico morale è per sua stessa natura irrazionale: prende quella che potrebbe essere una preoccupazione legittima e la gonfia a un livello di isteria che ironicamente rende più difficile affrontare preoccupazioni realmente serie.
E wow, in questo momento abbiamo un panico morale in piena regola sull'IA.
Questo panico morale è già utilizzato come forza motivante da una varietà di attori per richiedere un'azione politica: nuove restrizioni, regolamenti e leggi sull'IA. Questi attori, che stanno facendo dichiarazioni pubbliche estremamente drammatiche sui pericoli dell'intelligenza artificiale - alimentando e infiammando ulteriormente il panico morale - si presentano tutti come campioni altruisti del bene pubblico.
Ma lo sono?
E hanno ragione o torto?
I battisti e i contrabbandieri dell'intelligenza artificiale
Gli economisti hanno osservato un modello di lunga data nei movimenti di riforma di questo tipo. Gli attori all'interno di movimenti come questi rientrano in due categorie – “Battisti” e “Bootleggers” – attingendo all'esempio storico della proibizione dell'alcool negli Stati Uniti negli anni '20:
I "battisti" sono i veri riformatori sociali credenti che sentono legittimamente - profondamente ed emotivamente, se non razionalmente - che sono necessarie nuove restrizioni, regolamenti e leggi per prevenire il disastro sociale. Per la proibizione dell'alcol, questi attori erano spesso cristiani devoti che sentivano che l'alcol stava distruggendo il tessuto morale della società. Per quanto riguarda il rischio di intelligenza artificiale, questi attori credono fermamente che l'IA presenti l'uno o l'altro rischio esistenziale: legateli a un poligrafo, lo intendono davvero.
I "contrabbandieri" sono gli opportunisti egoisti che traggono profitto finanziariamente dall'imposizione di nuove restrizioni, regolamenti e leggi che li isolano dai concorrenti. Per la proibizione dell'alcol, questi erano letteralmente i contrabbandieri che hanno fatto fortuna vendendo alcol illecito agli americani quando le vendite di alcol legittime sono state vietate. Per il rischio AI, questi sono amministratori delegati che possono guadagnare di più se vengono erette barriere normative che formano un cartello di fornitori di AI benedetti dal governo protetti dalle nuove startup e dalla concorrenza open source: la versione software delle banche "troppo grandi per fallire".
Un cinico suggerirebbe che alcuni degli apparenti battisti siano anche contrabbandieri, in particolare quelli pagati per attaccare l'intelligenza artificiale dalle loro università, gruppi di riflessione, gruppi di attivisti e media. Se ricevi uno stipendio o ricevi sovvenzioni per favorire il panico dell'IA ... probabilmente sei un contrabbandiere.
Il problema con i contrabbandieri è che vincono. I battisti sono ideologi ingenui, i contrabbandieri sono operatori cinici, e quindi il risultato di movimenti di riforma come questi è spesso che i contrabbandieri ottengono ciò che vogliono - cattura normativa, isolamento dalla concorrenza, formazione di un cartello - e i battisti sono lasciati a chiedersi dove la loro spinta al miglioramento sociale è andata così male.
Ne abbiamo appena vissuto uno straordinario esempio: la riforma bancaria dopo la crisi finanziaria globale del 2008. I Battisti ci hanno detto che avevamo bisogno di nuove leggi e regolamenti per smantellare le banche "troppo grandi per fallire" per evitare che una simile crisi si ripeta. Così il Congresso ha approvato il Dodd-Frank Act del 2010, che è stato commercializzato come un soddisfacimento dell'obiettivo dei Battisti, ma in realtà è stato cooptato dai Contrabbandieri, le grandi banche. Il risultato è che le stesse banche che erano “troppo grandi per fallire” nel 2008 ora sono molto, molto più grandi.
Quindi, in pratica, anche quando i Battisti sono sinceri – e anche quando hanno ragione – vengono usati come copertura da Contrabbandieri manipolatori e venali a loro vantaggio.
E questo è ciò che sta accadendo nella spinta alla regolamentazione dell'IA in questo momento.
Tuttavia, non è sufficiente identificare semplicemente gli attori e contestare le loro motivazioni. Dovremmo considerare gli argomenti sia dei battisti che dei contrabbandieri sui loro meriti.
Rischio AI n. 1: l'IA ci ucciderà tutti?
Il primo e più famoso rischio dell'IA è che l'IA decida di uccidere letteralmente l'umanità.
La paura che la tecnologia di nostra creazione si alzi e ci distrugga è profondamente codificata nella nostra cultura. I Greci espressero questa paura nel mito di Prometeo – Prometeo portò all'uomo il potere distruttivo del fuoco, e più in generale della tecnologia (“techne”), per cui Prometeo fu condannato alla tortura perpetua dagli dei. Successivamente, Mary Shelley ha dato a noi moderni la nostra versione di questo mito nel suo romanzo Frankenstein, o The Modern Prometheus, in cui sviluppiamo la tecnologia per la vita eterna, che poi si alza e cerca di distruggerci. E, naturalmente, nessuna storia di giornale sul panico dell'intelligenza artificiale è completa senza un'immagine fissa di un robot killer dagli occhi rossi scintillante dei film Terminator di James Cameron.
Il presunto scopo evolutivo di questa mitologia è quello di motivarci a considerare seriamente i potenziali rischi delle nuove tecnologie: il fuoco, dopo tutto, può infatti essere utilizzato per bruciare intere città. Ma proprio come il fuoco è stato anche il fondamento della civiltà moderna, utilizzato per tenerci al caldo e al sicuro in un mondo freddo e ostile, questa mitologia ignora il vantaggio di gran lunga più grande della maggior parte - tutte? – delle nuove tecnologie, e in pratica infiamma l'emozione distruttiva piuttosto che l'analisi ragionata. Solo perché l'uomo premoderno è andato fuori di testa in questo modo non significa che dobbiamo farlo noi; possiamo invece applicare la razionalità.
La mia opinione è che l'idea che l'IA deciderà di uccidere letteralmente l'umanità sia un profondo errore di categoria. L'intelligenza artificiale non è un essere vivente che è stato innescato da miliardi di anni di evoluzione per partecipare alla battaglia per la sopravvivenza del più adatto, come lo sono gli animali e come lo siamo noi. È matematica, codice, computer. Cose costruite da persone, possedute da persone, usate da persone, controllate da persone. L'idea che a un certo punto svilupperà una mente propria e deciderà di avere motivazioni che lo portano a cercare di ucciderci è un gesto superstizioso.
Insomma, l'IA non desidera, non ha obiettivi, non vuole ucciderti, perché non è viva. E l'intelligenza artificiale è una macchina: non prenderà vita più di quanto lo farà il tuo tostapane.
Ora, ovviamente, ci sono veri credenti nell'intelligenza artificiale killer - i battisti - che stanno guadagnando una copertura mediatica improvvisamente stratosferica per i loro terrificanti avvertimenti, alcuni dei quali affermano di aver studiato l'argomento per decenni e affermano di essere ora spaventati a morte menti da ciò che hanno imparato. Alcuni di questi veri credenti sono persino dei veri innovatori della tecnologia. Questi attori stanno sostenendo una serie di restrizioni bizzarre ed estreme sull'IA, che vanno dal divieto dello sviluppo dell'IA, fino agli attacchi aerei militari sui data center e alla guerra nucleare. Sostengono che, poiché le persone come me non possono escludere future conseguenze catastrofiche dell'IA, dobbiamo assumere una posizione precauzionale che potrebbe richiedere grandi quantità di violenza fisica e morte per prevenire potenziali rischi esistenziali.
La mia risposta è che la loro posizione non è scientifica: qual è l'ipotesi verificabile? Cosa falsificherebbe l'ipotesi? Come facciamo a sapere quando stiamo entrando in una zona di pericolo? Queste domande rimangono per lo più senza risposta a parte "Non puoi provare che non accadrà!" In effetti, la posizione di questi battisti è così non scientifica e così estrema - una teoria del complotto su matematica e codice - e richiede già violenza fisica, che farò qualcosa che normalmente non farei e metterò in discussione anche le loro motivazioni.
Nello specifico, penso che stiano accadendo tre cose:
In primo luogo, ricordiamo che John Von Neumann ha risposto al famoso torcersi la mano di Robert Oppenheimer sul suo ruolo nella creazione di armi nucleari - che ha contribuito a porre fine alla seconda guerra mondiale e a prevenire la terza - con: "Alcune persone si confessano colpevoli per rivendicare il merito del peccato". Qual è il modo più drammatico in cui si può rivendicare il merito dell'importanza del proprio lavoro senza sembrare apertamente vanagloriosi? Questo spiega la discrepanza tra le parole e le azioni dei battisti che stanno effettivamente costruendo e finanziando l'IA: osserva le loro azioni, non le loro parole. (Truman è stato più duro dopo l'incontro con Oppenheimer: "Non lasciare che quel piagnucolone entri di nuovo qui.")
In secondo luogo, alcuni dei battisti sono in realtà contrabbandieri. Esiste un'intera professione di "esperto di sicurezza dell'IA", "etico dell'IA", "ricercatore del rischio dell'IA". Sono pagati per essere condannati e le loro dichiarazioni dovrebbero essere elaborate in modo appropriato.
Terzo, la California è giustamente famosa per le nostre molte migliaia di culti, da EST al Peoples Temple, da Heaven's Gate alla Manson Family. Molti, anche se non tutti, di questi culti sono innocui e forse hanno anche uno scopo per le persone alienate che vi trovano casa. Ma alcuni sono davvero molto pericolosi e le sette hanno notoriamente difficoltà a cavalcare la linea che alla fine porta alla violenza e alla morte.
E la realtà, che è ovvia per tutti nella Bay Area ma probabilmente non al di fuori di essa, è che il "rischio AI" si è trasformato in un culto, che è improvvisamente emerso alla luce dell'attenzione della stampa globale e della conversazione pubblica. Questo culto ha attirato non solo personaggi marginali, ma anche alcuni veri esperti del settore e un numero non piccolo di ricchi donatori, tra cui, fino a poco tempo fa, Sam Bankman-Fried. E ha sviluppato una panoplia completa di comportamenti e credenze di culto.
Questo culto è il motivo per cui ci sono una serie di condannati al rischio di intelligenza artificiale che sembrano così estremi: non è che abbiano effettivamente una conoscenza segreta che renda logico il loro estremismo, è che si sono scatenati in una frenesia e sono davvero ... estremamente estremi.
Si scopre che questo tipo di culto non è nuovo: esiste una lunga tradizione occidentale di millenarismo, che genera culti dell'apocalisse. Il culto del rischio AI ha tutte le caratteristiche di un culto millenario dell'apocalisse. Da Wikipedia, con aggiunte mie:
"Il millenarismo è la credenza di un gruppo o di un movimento [i fautori del rischio dell'IA] in un'imminente trasformazione fondamentale della società [l'arrivo dell'IA], dopo di che tutte le cose saranno cambiate [l'utopia dell'IA, la distopia e/o la fine del mondo] . Solo gli eventi drammatici [divieti dell'IA, attacchi aerei sui data center, attacchi nucleari contro l'IA non regolamentata] sono visti come in grado di cambiare il mondo [prevenire l'IA] e si prevede che il cambiamento sarà realizzato, o sopravvissuto, da un gruppo di devoti e devoti . Nella maggior parte degli scenari millenaristici, il disastro o la battaglia a venire [l'apocalisse dell'IA, o la sua prevenzione] sarà seguita da un mondo nuovo e purificato [i divieti dell'IA] in cui i credenti saranno ricompensati [o almeno si riconoscerà che hanno sempre avuto ragione ].”
Questo modello di culto dell'apocalisse è così ovvio che sono sorpreso che più persone non lo vedano.
Non fraintendetemi, le sette sono divertenti da ascoltare, il loro materiale scritto è spesso creativo e affascinante, e i loro membri sono impegnati a cene e in TV. Ma le loro convinzioni estreme non dovrebbero determinare il futuro delle leggi e della società – ovviamente no.
Rischio AI n. 2: l'IA rovinerà la nostra società?
Il secondo rischio dell'IA ampiamente discusso è che l'IA rovini la nostra società, generando risultati che saranno così "dannosi", per usare la nomenclatura di questo tipo di sventura, da causare danni profondi all'umanità, anche se non siamo letteralmente ucciso.
Versione breve: se i robot assassini non ci prendono, l'incitamento all'odio e la disinformazione lo faranno.
Questa è una preoccupazione relativamente recente che si è ramificata e in qualche modo ha preso il sopravvento sul movimento del "rischio AI" che ho descritto sopra. In effetti, la terminologia del rischio AI è recentemente cambiata da "AI safety" - il termine usato da persone che sono preoccupate che l'IA ci ucciderebbe letteralmente - ad "AI Alignment" - il termine usato da persone che sono preoccupate per i "danni" della società . Gli originali addetti alla sicurezza dell'IA sono frustrati da questo cambiamento, sebbene non sappiano come rimetterlo nella scatola: ora sostengono che l'attuale argomento del rischio dell'IA venga rinominato "AI notkilleveryoneism", che non è stato ancora ampiamente adottato ma è almeno chiaro.
La soffiata sulla natura dell'affermazione sul rischio sociale dell'IA è il suo stesso termine, "allineamento AI". Allineamento con cosa? Valori umani. Valori umani di chi? Ah, è qui che le cose si fanno complicate.
Si dà il caso che io abbia avuto un posto in prima fila in una situazione analoga: le guerre di "fiducia e sicurezza" sui social media. Come ora è ovvio, i servizi di social media sono stati oggetto di massicce pressioni da parte di governi e attivisti per vietare, limitare, censurare e sopprimere in altro modo un'ampia gamma di contenuti per molti anni. E le stesse preoccupazioni di "incitamento all'odio" (e la sua controparte matematica, "pregiudizi algoritmici") e "disinformazione" vengono trasferite direttamente dal contesto dei social media alla nuova frontiera dell'"allineamento AI".
I miei grandi insegnamenti dalle guerre sui social media sono:
Da un lato, non esiste una posizione assolutista sulla libertà di parola. Innanzitutto, ogni paese, compresi gli Stati Uniti, rende illegali almeno alcuni contenuti. In secondo luogo, ci sono alcuni tipi di contenuti, come la pornografia infantile e gli incitamenti alla violenza nel mondo reale, che sono quasi universalmente accettati come vietati - legali o meno - praticamente da ogni società. Pertanto, qualsiasi piattaforma tecnologica che faciliti o generi contenuto, il parlato, avrà alcune restrizioni.
D'altra parte, il pendio scivoloso non è un errore, è un'inevitabilità. Una volta stabilito un quadro per limitare anche i contenuti terribilmente terribili - ad esempio, per incitamento all'odio, una specifica parola offensiva o per disinformazione, affermazioni ovviamente false come "il Papa è morto" - una gamma incredibilmente ampia di agenzie governative e pressioni di attivisti i gruppi e le entità non governative si metteranno in marcia e chiederanno livelli sempre maggiori di censura e soppressione di qualunque discorso considerino minaccioso per la società e/o le proprie preferenze personali. Lo faranno fino a includere in modi che sono apertamente crimini criminali. Questo ciclo in pratica può durare apparentemente per sempre, con il supporto entusiastico di monitor di sala autoritari installati in tutte le nostre strutture di potere d'élite. Questo si è diffuso per un decennio nei social media e, con solo alcune eccezioni, continua a diventare sempre più fervido.
E quindi questa è la dinamica che si è formata attorno all '"allineamento dell'IA" ora. I suoi sostenitori rivendicano la saggezza per progettare discorsi e pensieri generati dall'IA che fanno bene alla società e vietare discorsi e pensieri generati dall'IA che fanno male alla società. I suoi oppositori affermano che la polizia del pensiero è incredibilmente arrogante e presuntuosa - e spesso addirittura criminale, almeno negli Stati Uniti - e in effetti sta cercando di diventare un nuovo tipo di dittatura autoritaria governativa, corporativa e accademica, strappata direttamente dalle pagine di 1984 di George Orwell.
Poiché i sostenitori sia della "fiducia e sicurezza" che dell'"allineamento dell'IA" sono raggruppati nella fetta molto ristretta della popolazione globale che caratterizza le élite costiere americane - che comprende molte delle persone che lavorano e scrivono sull'industria tecnologica - molti dei miei lettori si troverà pronto a sostenere che sono necessarie restrizioni drammatiche sulla produzione di intelligenza artificiale per evitare di distruggere la società. Non cercherò di dissuaderti ora, dirò semplicemente che questa è la natura della richiesta e che la maggior parte delle persone nel mondo non è d'accordo con la tua ideologia né vuole vederti vincere.
Se non sei d'accordo con la moralità di nicchia prevalente che viene imposta sia sui social media che sull'intelligenza artificiale tramite codici vocali sempre più intensi, dovresti anche renderti conto che la lotta su ciò che l'IA è autorizzata a dire/generare sarà ancora più importante: di molto – rispetto alla lotta per la censura dei social media. È molto probabile che l'intelligenza artificiale sia il livello di controllo per tutto nel mondo. Il modo in cui è consentito operare avrà importanza forse più di qualsiasi altra cosa abbia mai avuto importanza. Dovresti essere consapevole di come una piccola e isolata confraternita di ingegneri sociali partigiani stia cercando di determinarlo proprio ora, sotto la copertura dell'antica affermazione che ti stanno proteggendo.
In breve, non lasciare che la polizia del pensiero sopprima l'intelligenza artificiale.
Rischio AI n. 3: l'IA prenderà tutti i nostri lavori?
La paura della perdita del lavoro a causa della meccanizzazione, dell'automazione, dell'informatizzazione o dell'intelligenza artificiale è stata un panico ricorrente per centinaia di anni, sin dall'inizio di macchinari come il telaio meccanico. Anche se ogni nuova grande tecnologia ha portato a più posti di lavoro a salari più alti nel corso della storia, ogni ondata di questo panico è accompagnata da affermazioni che "questa volta è diversa" - questo è il momento in cui finalmente accadrà, questa è la tecnologia che finalmente dare il colpo di martello al lavoro umano. Eppure, non succede mai.
Abbiamo attraversato due di questi cicli di panico da disoccupazione guidati dalla tecnologia nel nostro recente passato: il panico dell'outsourcing degli anni 2000 e il panico dell'automazione degli anni 2010. Nonostante molte teste parlanti, esperti e persino dirigenti del settore tecnologico abbiano battuto il tavolo durante entrambi i decenni in cui la disoccupazione di massa era vicina, alla fine del 2019 - proprio prima dell'inizio di COVID - il mondo aveva più posti di lavoro con salari più alti che mai nella storia.
Tuttavia questa idea sbagliata non morirà.
E abbastanza sicuro, è tornato.
Questa volta, finalmente abbiamo la tecnologia che prenderà tutti i posti di lavoro e renderà superflui i lavoratori umani: la vera intelligenza artificiale. Sicuramente questa volta la storia non si ripeterà e l'intelligenza artificiale causerà disoccupazione di massa - e non una rapida crescita economica, occupazionale e salariale - giusto?
No, non accadrà - e infatti l'IA, se le viene permesso di svilupparsi e proliferare in tutta l'economia, potrebbe causare il boom economico più drammatico e sostenuto di tutti i tempi, con una corrispondente crescita record di posti di lavoro e salari - l'esatto opposto della paura . Ed ecco perché.
L'errore principale che continuano a fare i condannati dell'automazione-uccide-lavori si chiama Fallacy del grumo di lavoro. Questo errore è l'idea errata che ci sia una quantità fissa di lavoro da svolgere nell'economia in un dato momento, e che lo facciano le macchine o lo facciano le persone - e se lo fanno le macchine, non ci sarà lavoro da fare per le persone .
L'errore del grumo di lavoro deriva naturalmente dall'intuizione ingenua, ma l'intuizione ingenua qui è sbagliata. Quando la tecnologia viene applicata alla produzione, otteniamo una crescita della produttività, un aumento della produzione generato da una riduzione degli input. Il risultato sono prezzi più bassi per beni e servizi. Man mano che i prezzi di beni e servizi diminuiscono, li paghiamo meno, il che significa che ora abbiamo un potere di spesa extra con cui acquistare altre cose. Ciò aumenta la domanda nell'economia, che guida la creazione di nuova produzione, inclusi nuovi prodotti e nuove industrie, che quindi crea nuovi posti di lavoro per le persone che sono state sostituite dalle macchine nei lavori precedenti. Il risultato è un'economia più grande con una maggiore prosperità materiale, più industrie, più prodotti e più posti di lavoro.
Ma le buone notizie non finiscono qui. Otteniamo anche salari più alti. Questo perché, a livello del singolo lavoratore, il mercato fissa il compenso in funzione della produttività marginale del lavoratore. Un lavoratore in un'azienda basata sulla tecnologia sarà più produttivo di un lavoratore in un'azienda tradizionale. Il datore di lavoro pagherà a quel lavoratore più soldi poiché ora è più produttivo, oppure lo farà un altro datore di lavoro, puramente per interesse personale. Il risultato è che la tecnologia introdotta in un settore generalmente non solo aumenta il numero di posti di lavoro nel settore, ma aumenta anche i salari.
Per riassumere, la tecnologia consente alle persone di essere più produttive. Ciò fa diminuire i prezzi dei beni e dei servizi esistenti e aumenta i salari. Ciò a sua volta provoca crescita economica e crescita occupazionale, motivando la creazione di nuovi posti di lavoro e nuove industrie. Se si permette a un'economia di mercato di funzionare normalmente e se si permette alla tecnologia di essere introdotta liberamente, questo è un ciclo ascendente perpetuo che non finisce mai. Perché, come ha osservato Milton Friedman, "i desideri e i bisogni umani sono infiniti" - vogliamo sempre più di quello che abbiamo. Un'economia di mercato infusa di tecnologia è il modo in cui ci avviciniamo a fornire tutto ciò che tutti potrebbero desiderare, ma mai fino in fondo. Ed è per questo che la tecnologia non distrugge posti di lavoro e non lo farà mai.
Queste sono idee così strabilianti per le persone che non sono state esposte a loro che potrebbe volerci del tempo per capirle. Ma giuro che non me li sto inventando, infatti puoi leggere tutto su di loro nei normali libri di testo di economia. Raccomando il capitolo The Curse of Machinery in Economics In One Lesson di Henry Hazlitt e la satirica Candlemaker's Petition di Frederic Bastiat per oscurare il sole a causa della sua concorrenza sleale con l'industria dell'illuminazione, qui modernizzata per i nostri tempi.
Ma questa volta è diverso, stai pensando. Questa volta, con l'intelligenza artificiale, abbiamo la tecnologia che può sostituire TUTTO il lavoro umano.
Ma, usando i principi che ho descritto sopra, pensate a cosa significherebbe se letteralmente tutto il lavoro umano esistente fosse sostituito dalle macchine.
Significherebbe un tasso di decollo della crescita della produttività economica che sarebbe assolutamente stratosferico, ben oltre ogni precedente storico. I prezzi dei beni e dei servizi esistenti scenderebbero virtualmente a zero. Il benessere dei consumatori salirebbe alle stelle. Il potere di spesa dei consumatori salirebbe alle stelle. La nuova domanda nell'economia esploderebbe. Gli imprenditori creerebbero una serie vertiginosa di nuovi settori, prodotti e servizi e impiegherebbero quante più persone e IA possibile il più velocemente possibile per soddisfare tutta la nuova domanda.
Supponiamo che l'intelligenza artificiale sostituisca ancora una volta quel lavoro? Il ciclo si ripeterebbe, spingendo ancora più in alto il benessere dei consumatori, la crescita economica e la crescita dei posti di lavoro e dei salari. Sarebbe una spirale dritta fino a un'utopia materiale che né Adam Smith né Karl Marx hanno mai osato sognare.
Rischio AI n. 4: l'IA porterà a una disuguaglianza paralizzante?
Parlando di Karl Marx, la preoccupazione per l'IA che accetta lavori passa direttamente al prossimo rischio dichiarato di AI, che è, OK, Marc, supponiamo che l'IA accetti tutti i lavori, nel male o nel bene. Ciò non si tradurrà in un'enorme e paralizzante disuguaglianza di ricchezza, poiché i proprietari dell'IA raccolgono tutti i frutti economici e le persone normali non ottengono nulla?
Si dà il caso che questa fosse un'affermazione centrale del marxismo, secondo cui i proprietari dei mezzi di produzione - la borghesia - avrebbero inevitabilmente rubato tutta la ricchezza sociale dalle persone che svolgono il lavoro vero e proprio - il proletariato. Questo è un altro errore che semplicemente non morirà, non importa quanto spesso venga smentito dalla realtà. Ma piantiamo comunque un paletto nel suo cuore.
Il difetto di questa teoria è che, in quanto proprietario di un pezzo di tecnologia, non è nel tuo interesse tenerlo per te - anzi, è nel tuo stesso interesse venderlo a quanti più clienti possibile. Il più grande mercato al mondo per qualsiasi prodotto è il mondo intero, tutti noi 8 miliardi. E così in realtà, ogni nuova tecnologia, anche quelle che iniziano vendendosi all'aria rarefatta di grandi aziende ben pagate o consumatori facoltosi, prolifera rapidamente fino a quando non è nelle mani del più grande mercato di massa possibile, in definitiva tutti sul pianeta.
Il classico esempio di ciò è stato il cosiddetto "piano segreto" di Elon Musk - che ha naturalmente pubblicato apertamente - per Tesla nel 2006:
Passaggio 1, costruisci un'auto sportiva [costosa].
Passaggio 2, usa quei soldi per costruire un'auto economica
Passaggio 3, usa quei soldi per costruire un'auto ancora più economica
… che è ovviamente esattamente quello che ha fatto, diventando l'uomo più ricco del mondo come risultato.
Quest'ultimo punto è fondamentale. Elon sarebbe ancora più ricco se oggi vendesse auto solo ai ricchi? No. Sarebbe ancora più ricco se costruisse auto solo per se stesso? Ovviamente no. No, massimizza il proprio profitto vendendo al più grande mercato possibile, il mondo.
In breve, tutti ottengono la cosa, come abbiamo visto in passato non solo con le automobili, ma anche con l'elettricità, la radio, i computer, Internet, i telefoni cellulari e i motori di ricerca. I creatori di tali tecnologie sono fortemente motivati a ridurre i loro prezzi fino a quando tutti sul pianeta potranno permetterseli. Questo è esattamente ciò che sta già accadendo nell'IA – è il motivo per cui è possibile utilizzare l'IA generativa all'avanguardia non solo a basso costo ma anche gratuitamente oggi sotto forma di Microsoft Bing e Google Bard – ed è ciò che continuerà ad accadere. Non perché tali venditori siano sciocchi o generosi, ma proprio perché sono avidi: vogliono massimizzare le dimensioni del loro mercato, il che massimizza i loro profitti.
Quindi ciò che accade è l'opposto della tecnologia che guida la centralizzazione della ricchezza: i singoli clienti della tecnologia, in ultima analisi, inclusi tutti gli abitanti del pianeta, sono invece autorizzati e catturano la maggior parte del valore generato. Come con le tecnologie precedenti, le aziende che costruiscono l'intelligenza artificiale, supponendo che debbano funzionare in un mercato libero, competeranno furiosamente per far sì che ciò accada.
Marx aveva torto allora, e ha torto anche adesso.
Questo non vuol dire che la disuguaglianza non sia un problema nella nostra società. È, non è solo guidato dalla tecnologia, è guidato dal contrario, dai settori dell'economia che sono i più resistenti alle nuove tecnologie, che hanno il maggior intervento del governo per impedire l'adozione di nuove tecnologie come l'IA - in particolare alloggio, istruzione e assistenza sanitaria. Il rischio reale dell'IA e della disuguaglianza non è che l'IA causi più disuguaglianza, ma piuttosto che non permetteremo che l'IA venga utilizzata per ridurre la disuguaglianza.
Rischio AI n. 5: l'IA porterà persone cattive a fare cose cattive?
Finora ho spiegato perché quattro dei cinque rischi dell'IA proposti più spesso non sono effettivamente reali: l'IA non prenderà vita e ci ucciderà, l'IA non rovinerà la nostra società, l'IA non causerà disoccupazione di massa e l'IA non causerà un rovinoso aumento delle disuguaglianze. Ma ora affrontiamo il quinto, quello con cui sono effettivamente d'accordo: l'IA renderà più facile per le persone cattive fare cose cattive.
In un certo senso questa è una tautologia. La tecnologia è uno strumento. Gli strumenti, a cominciare dal fuoco e dalle pietre, possono essere usati per fare cose buone - cucinare cibo e costruire case - e cose cattive - bruciare persone e randellate. Qualsiasi tecnologia può essere usata nel bene o nel male. Abbastanza giusto. E l'intelligenza artificiale renderà più facile per criminali, terroristi e governi ostili fare cose cattive, senza dubbio.
Questo fa sì che alcune persone propongano, beh, in tal caso, non corriamo il rischio, vietiamo l'IA ora prima che ciò possa accadere. Sfortunatamente, l'intelligenza artificiale non è un materiale fisico esoterico difficile da trovare, come il plutonio. È l'opposto, è il materiale più semplice al mondo da trovare: matematica e codice.
Il gatto AI è ovviamente già fuori dal sacco. Puoi imparare a costruire l'intelligenza artificiale da migliaia di corsi, libri, documenti e video online gratuiti e ci sono eccezionali implementazioni open source che proliferano di giorno in giorno. L'intelligenza artificiale è come l'aria: sarà ovunque. Il livello di oppressione totalitaria che sarebbe necessario per arrestare sarebbe così draconiano: un governo mondiale che monitora e controlla tutti i computer? teppisti con gli stivali neri su elicotteri neri che sequestrano GPU canaglia? – che non avremmo più una società da proteggere.
Quindi, invece, ci sono due modi molto semplici per affrontare il rischio che persone cattive facciano cose cattive con l'IA, e questi sono esattamente ciò su cui dovremmo concentrarci.
Innanzitutto, abbiamo leggi sui libri per criminalizzare la maggior parte delle cose brutte che chiunque farà con l'IA. Entrare nel Pentagono? Questo è un crimine. Rubare soldi da una banca? Questo è un crimine. Creare un'arma biologica? Questo è un crimine. Commettere un atto terroristico? Questo è un crimine. Possiamo semplicemente concentrarci sulla prevenzione di quei crimini quando possiamo e perseguirli quando non possiamo. Non abbiamo nemmeno bisogno di nuove leggi: non sono a conoscenza di un singolo cattivo uso effettivo dell'IA proposto che non sia già illegale. E se viene identificato un nuovo uso improprio, lo vietiamo. QED.
Ma noterai cosa sono scivolato lì dentro - ho detto che dovremmo concentrarci prima sulla prevenzione dei crimini assistiti dall'IA prima che accadano - tale prevenzione non significherebbe vietare l'IA? Bene, c'è un altro modo per prevenire tali azioni, ed è usare l'IA come strumento difensivo. Le stesse capacità che rendono l'IA pericolosa nelle mani di cattivi con cattivi obiettivi la rendono potente nelle mani di bravi ragazzi con buoni obiettivi, in particolare i bravi ragazzi il cui compito è impedire che accadano cose brutte.
Ad esempio, se sei preoccupato per l'intelligenza artificiale che genera persone false e video falsi, la risposta è creare nuovi sistemi in cui le persone possano verificare se stesse e i contenuti reali tramite firme crittografiche. La creazione digitale e l'alterazione di contenuti sia reali che falsi erano già qui prima dell'IA; la risposta non è vietare elaboratori di testi e Photoshop - o AI - ma utilizzare la tecnologia per costruire un sistema che risolva effettivamente il problema.
E quindi, in secondo luogo, facciamo grandi sforzi per utilizzare l'IA per scopi buoni, legittimi e difensivi. Mettiamo l'intelligenza artificiale al lavoro nella difesa informatica, nella difesa biologica, nella caccia ai terroristi e in tutto ciò che facciamo per proteggere noi stessi, le nostre comunità e la nostra nazione.
Ci sono già molte persone intelligenti all'interno e all'esterno del governo che fanno esattamente questo, ovviamente, ma se applichiamo tutti gli sforzi e le capacità intellettuali che sono attualmente fissati sull'inutile prospettiva di vietare l'IA per usarla per proteggersi da persone cattive che fanno cose cattive, Penso che non ci siano dubbi che un mondo intriso di intelligenza artificiale sarà molto più sicuro del mondo in cui viviamo oggi.
Il rischio reale di non perseguire l'IA con la massima forza e velocità
C'è un ultimo e reale rischio di intelligenza artificiale che è probabilmente il più spaventoso in assoluto:
L'intelligenza artificiale non viene sviluppata solo nelle società relativamente libere dell'Occidente, ma viene sviluppata anche dal Partito Comunista della Repubblica popolare cinese.
La Cina ha una visione molto diversa per l'IA rispetto a noi: la vedono come un meccanismo per il controllo autoritario della popolazione, punto e basta. Non sono nemmeno segreti su questo, sono molto chiari al riguardo e stanno già perseguendo la loro agenda. E non intendono limitare la loro strategia di intelligenza artificiale alla Cina: intendono diffonderla in tutto il mondo, ovunque alimentano reti 5G, ovunque prestano denaro a Belt And Road, ovunque forniscono app di consumo amichevoli come Tiktok che servono come front-end per il loro comando centralizzato e controllo AI.
L'unico rischio maggiore dell'IA è che la Cina ottenga il dominio globale dell'IA e noi - Stati Uniti e Occidente - no.
Propongo una semplice strategia su cosa fare al riguardo – in effetti, la stessa strategia usata dal presidente Ronald Reagan per vincere la prima Guerra Fredda con l'Unione Sovietica.
"Noi vinciamo, loro perdono".
Piuttosto che permettere che il panico infondato intorno all'IA assassina, all'IA "dannosa", all'IA che distrugge posti di lavoro e all'IA che genera disuguaglianza ci metta in piedi, noi negli Stati Uniti e in Occidente dovremmo appoggiarci all'IA il più possibile .
Dovremmo cercare di vincere la corsa alla superiorità tecnologica globale dell'IA e garantire che la Cina non lo faccia.
Nel processo, dovremmo guidare l'IA nella nostra economia e società il più velocemente e duramente possibile, al fine di massimizzare i suoi guadagni per la produttività economica e il potenziale umano.
Questo è il modo migliore sia per compensare i reali rischi dell'IA sia per garantire che il nostro modo di vivere non venga sostituito dalla visione cinese molto più oscura.
Che cosa si deve fare?
Propongo un piano semplice:
Le grandi aziende di intelligenza artificiale dovrebbero essere autorizzate a costruire l'IA il più velocemente e in modo aggressivo possibile, ma non autorizzate a ottenere la cattura normativa, non autorizzate a stabilire un cartello di protezione del governo che sia isolato dalla concorrenza di mercato a causa di affermazioni errate sul rischio di intelligenza artificiale. Ciò massimizzerà il profitto tecnologico e sociale derivante dalle straordinarie capacità di queste aziende, che sono gioielli del capitalismo moderno.
Le aziende di intelligenza artificiale di avvio dovrebbero essere autorizzate a costruire l'IA nel modo più rapido e aggressivo possibile. Non dovrebbero né affrontare la protezione concessa dal governo alle grandi aziende, né dovrebbero ricevere l'assistenza del governo. Dovrebbero semplicemente essere autorizzati a competere. Se e poiché le startup non hanno successo, la loro presenza sul mercato motiverà continuamente anche le grandi aziende a dare il meglio di sé: le nostre economie e società vincono in entrambi i casi.
L'intelligenza artificiale open source dovrebbe poter proliferare liberamente e competere sia con le grandi aziende di intelligenza artificiale che con le startup. Non dovrebbero esserci barriere normative di sorta all'open source. Anche quando l'open source non batte le aziende, la sua ampia disponibilità è un vantaggio per gli studenti di tutto il mondo che vogliono imparare a costruire e utilizzare l'IA per diventare parte del futuro tecnologico e garantirà che l'IA sia disponibile a tutti coloro che possono trarne vantaggio, non importa chi siano o quanti soldi abbiano.
Per compensare il rischio che le persone cattive facciano cose cattive con l'IA, i governi che lavorano in collaborazione con il settore privato dovrebbero impegnarsi con forza in ogni area di potenziale rischio per utilizzare l'IA per massimizzare le capacità difensive della società. Ciò non dovrebbe essere limitato ai rischi abilitati dall'IA, ma anche a problemi più generali come la malnutrizione, le malattie e il clima. L'intelligenza artificiale può essere uno strumento incredibilmente potente per risolvere i problemi e dovremmo accoglierla come tale.
Per prevenire il rischio che la Cina raggiunga il dominio globale dell'IA, dovremmo usare tutto il potere del nostro settore privato, della nostra istituzione scientifica e dei nostri governi in concerto per guidare l'IA americana e occidentale verso il dominio globale assoluto, anche all'interno della stessa Cina. Noi vinciamo, loro perdono.
Ed è così che usiamo l'intelligenza artificiale per salvare il mondo.
Leggende ed Eroi
Chiudo con due semplici affermazioni.
Lo sviluppo dell'intelligenza artificiale iniziò negli anni '40, contemporaneamente all'invenzione del computer. Il primo articolo scientifico sulle reti neurali - l'architettura dell'IA che abbiamo oggi - è stato pubblicato nel 1943. Intere generazioni di scienziati dell'IA negli ultimi 80 anni sono nate, sono andate a scuola, hanno lavorato e in molti casi sono morte senza vedere il payoff che stiamo ricevendo ora. Sono leggende, tutte.
Oggi, legioni crescenti di ingegneri - molti dei quali sono giovani e potrebbero aver avuto nonni o addirittura bisnonni coinvolti nella creazione delle idee alla base dell'IA - stanno lavorando per rendere l'IA una realtà, contro un muro di allarmismo e doomerismo che sta tentando di dipingerli come cattivi spericolati. Non credo che siano spericolati o cattivi. Sono eroi, tutti. Io e la mia azienda siamo entusiasti di sostenere il maggior numero possibile di loro e staremo al fianco di loro e del loro lavoro al 100%.