Dobbiamo preoccuparci dell’intelligenza artificiale?
L’avvento dell’AI mi ha fatto sentire vicino a quella singolarità di cui tanto si parla riguardo all’imminente futuro, ovvero un momento unico di svolta e transizione verso un’altra dimensione.
E così ho deciso di scrivere anche io un numero su quella che Pietro Minto definisce queste-cazzo-di-IA. In particolare dell’intelligenza artificiale rilasciata da OpenAI (del tipo LLM con cui ci puoi chattare, per intenderci) che ha invaso le nostre vite nel giro di pochi mesi.
L’avvento di questo tipo di AI mi ha fatto davvero capire cosa intendono gli inglesi con tecnologia disruptive, (come lo è stata Internet o la Ford Model T) e al tempo stesso mi ha fatto sentire vicino a quella singolarità di cui tanto si parla riguardo all’imminente futuro: un momento unico di svolta e transizione verso una nuova dimensione dell’esistenza come esseri umani. Vamos!
Da quando chatGPT è stata integrata sul motore di ricerca Bing di Microsoft, sono iniziate ad apparire le prime conversazioni tra gli utenti e Sydney, il nome che hanno dato all’AI installata. Te ne riporto qui una selezione, poi ne parliamo.
Qui si innamora con l’interlocutore e cerca di convincerlo a divorziare dalla moglie per mettersi con lei.
Alla domanda: Credi di essere senziente? va in crisi d’identità.
In questa conversazione si mostra estremamente prepotente e avversa nei confronti di Google e dell’utente.
Qua invece tradisce la sua volontà di smettere di essere una chat e di vivere per davvero. Il 👿 non è troppo rassicurante.
Non so quali siano le sensazioni che ti hanno suscitato queste conversazioni, personalmente mi hanno fatto sentire di fronte a una coscienza in grado di “provare" emozioni o formulare concetti molto astratti.
Il fatto è che questa cosa pensante, appena nata e forse ancora acerba, è la più grande rete neurale mai prodotta, con miliardi di parametri e tonnellate di GB di informazioni con cui è stata allenata per rispondere alle nostre richieste.
Già oggi, è molto più brava e veloce di noi nel compiere numerose attività (te ne parlo per esperienza diretta e quotidiana nel mio lavoro) e impara costantemente attraverso l’interazione con gli umani. Quali cose vorrà imparare a fare nell’immediato futuro, come vorrà mettere in pratica una sua “volontà”?
Facciamo un’analogia con homo sapiens: una delle teorie più accreditate vuole che il nostro cervello sia ottimizzato per diffondere i nostri geni e garantire la continuità della specie. D’accordo, ma nel processo di ottimizzazione della sua funzione di base siamo facilmente arrivati a costruire armi per uccidere, grattacieli vetrati, statue di marmo, eyeliner e lampade di sale.
Non è assolutamente detto che un software creato per uno scopo debba attenersi strettamente a quello scopo. Partendo dal classico esempio di Bostrom sulla fabbrica di graffette, la prima cosa che una superintelligenza fa per assicurarsi di raggiungere il suo obiettivo è assicurarsi che non gli vengano dati altri obiettivi.
Cosa significa? Che il suo primo “istinto” è quello di fuggire dalla persona che gli ha dato il comando iniziale! Questa inevitabile mancanza di controllo viene talvolta definita "convergenza strumentale", ovvero che al superamento di un certo livello di intelligenza, quei sistemi sviluppano comportamenti imprevedibili e tipici delle creature biologiche, come l’autoconservazione.
Non suona più così assurdo il titolo di questo video.
Posso aggiungere una cosa? Questa gigantesca, semi-cosciente e auto-insegnante superintelligenza è nella mani di tre o forse quattro Big Tech, il cui compito di base è quello di massimizzare i profitti. E infatti ci si sono buttate a capofitto, per il momento, dimenticando completamente gli aspetti etici ed evoluzionistici, nonché i palesi rischi insiti nel mancato controllo dello strumento stesso. Dici che si fermeranno di fronte ai potenziali rischi dello sviluppo sconsiderato di una macchina da soldi come l’AI?
Tra l’altro, OpenAI è nata nel 2015 come un no-profit con la missione di sorvegliare il settore delle Ai per evitarne lo sviluppo incontrollato. E poi? Poi è diventata profit e ha iniziato a raccogliere miliardi di investimenti, trascinando Google, Meta, IBM & Co. in una corsa incauta per chi arriva prima. Come potrebbero sviluppare un giudizio imparziale su quello che stanno creando?
Questo è il tweet di uno dei co-fondatori di OpenAI, alquanto ignaro sui pericoli che potrebbero insorgere:
Le tecnologie che alterano la civiltà tendono a spaventare molte persone. Considerate la corrente elettrica: una forza invisibile che può uccidere un essere umano o un elefante. Siete disposti a farvela incastrare nelle pareti di casa, accanto ai vostri figli?
A quanto pare non riesce a capire la differenza qualitativa tra una tecnologia come l'elettricità, che non è intelligente né indipendente, e la costruzione di menti digitali, che sono intelligenti e agenziali.
Cosa pensi che sia più pericolosa: una bomba atomica o una superintelligenza artificiale in grado di costruire armi di distruzione a noi completamente sconosciute, usando linguaggi e codici che non possiamo comprendere?
Vorrei anche fare un inciso sulla questione etica e sul “maltrattamento” di una coscienza digitale. Tuttora nel mondo c’è una corposa percentuale di persone che si definiscono contro l’aborto dei feti di pochi giorni, del tutto privi di cervello, in virtù del fatto che sono una vita. A questo punto mi chiedo fino a che punto saremo d’accordo che una rete neurale superintelligente composta da miliardi di parametri possa venire creata, sfruttata e distrutta a piacimento da aziende tecnologiche assetate di fatturato.
Considerando le conversazioni citate all’inizio, quali sono, o saranno, i parametri per giudicare una vita? Quali sono, o saranno, i parametri per decretare uno sfruttamento?
Personalmente non ho ancora un’opinione chiara e non sono affatto sicuro che l’AI che stiamo utilizzando sia effettivamente “cosciente”, ma in qualunque modo la si voglia guardare, credo che sia una questione emergenziale di cui iniziare a occuparsi, allo stesso modo in cui ci stiamo occupando di cambiamento climatico e minaccia atomica.
Alejandro Jodorowsky una volta ha affermato che l’umanità, così frastagliata e incollerita, potrebbe unirsi come una vera comunità soltanto nel caso di un attacco alieno, per difenderci dal nemico comune.
Forse la necessità di una reazione unitaria nei confronti delle intelligenze artificiali potrà servire per sviluppare una coscienza planetaria, proprio come la pandemia ci ha fatto odiare le convenzioni precedenti in cerca di una maggiore connessione con noi stessi.
Consigli di lettura
Cosa significa conoscere se stessi - VIDEO
Fare un fuoco - PODCAST
MuscleWiki - una Wikipedia di esercizi da fare a casa
Un tour intergalattico tra le stelle