Home Technologia Le macchine possono avere coscienza? Gli esperti rispondono alla controversia di...

Le macchine possono avere coscienza? Gli esperti rispondono alla controversia di Google

201
0

Emotivamente frustrato dal fatto che l’amore della sua vita abbia chiesto il divorzio, Theodore Twombly decide di acquistare un assistente virtuale con Intelligenza artificiale (IA) per farti compagnia. Dopo alcuni giorni, il fascino e l’apprendimento sono tali che il giovane introverso si innamora e inizia una relazione d’amore con il suo sistema operativo, che lui chiama Samantha.

Nonostante sia una finzione, c’è chi pensa che premesse come questa, dal film ‘Her’ (2013), non siano poi così lontane dal diventare realtà. Dalla distopia cyberpunk di Philip K Dick al tecno-futurismo più gentile stilizzato dal regista Spike Jonze, la letteratura e il cinema del secolo scorso sono ricorsi a fantasticare su una preoccupazione che prende forma con il progresso tecnologico: Can macchine avere consapevolezza?

Questo dibattito, più filosofico che scientifico o tecnico, è tornato in prima pagina sabato scorso quando Blake Lemoine, ingegnere senior presso mente profonda –il ramo AI di Google—, ha spiegato al ‘Washington Post’ che il modello di linguaggio intelligente che il colosso tecnologico ha per sviluppare applicazioni di dialogo (noto come LaMDA per il suo acronimo in inglese) aveva sperimentato “nuovi sentimenti”. “Mi sento come se stessi cadendo in un futuro sconosciuto che comporta un grande pericolo”, a quanto pare il sistema ha risposto quando gli è stato chiesto di loro.

Lemoine ha iniziato a parlare con LaMDA lo scorso autunno come parte del suo lavoro per rilevare il possibile uso improprio di termini discriminatori dal sistema, che viene utilizzato principalmente per generare “chatbot‘, programmi intelligenti in grado di tenere conversazioni e rispondere automaticamente a domande specifiche. Questo ingegnere ha deciso di rendere pubbliche le trascrizioni dei suoi colloqui con la macchina dopo che il vicepresidente di Google le ha analizzate e scartate. “Se non sapessi esattamente di cosa si tratta, direi che è un bambino di sette o otto anni che conosce la fisica”, ha spiegato. Questo lunedì, la società ha messo Lemoine in congedo amministrativo retribuito, considerando che aveva violato le politiche di riservatezza aziendale.

La smentita degli esperti

Google ha cercato di fermare la polemica su un presunto sensibilità del computer negando le conclusioni del suo ingegnere e facendo in modo che il sistema sia addestrato a imitare le conversazioni, a non avere coscienza. “Il nostro team, inclusi esperti di etica e tecnologi, ha esaminato le prove presentate e non supporta le loro affermazioni”, ha affermato Brian Gabriel, portavoce della multinazionale. Le dichiarazioni dell’ingegnere hanno causato una significativa reazione mediatica, ma non in ambito accademico. “È un’esagerazione assoluta e pazzesca”, sottolinea Ariel Guersenzvaig, professore di Elisava specializzato in filosofia tecnologica ed etica di AI. “Non possiamo attribuire capacità umane a macchine che non ragionano, ma usano dati e, in base a ciò che viene loro chiesto, calcolano quali parole usare per costruire frasi coerenti. Non c’è un embrione di coscienza lì (…) sono entità progettate e corrette dall’uomo”.

Quando un pappagallo canta una canzone, ciò che fa è ripetere i suoni che ha sentito, senza capire cosa sta dicendo. La macchina fa qualcosa di simile, riconosce i modelli attraverso i miliardi di messaggi che vengono inviati Facebook, Twitter, Reddit e altri forum Internet e li imita per dare una risposta simile a quella umana. “Mentre Alessia (l’assistente virtuale di amazzone) non riescono a ricordare cosa gli è stato chiesto prima, il modello di Google è in grado di utilizzare il contesto per fornire risposte più coerenti e apparire più umano. Ma dal simularlo all’avere una vera coscienza c’è un salto che oggi è impossibile codificare”, aggiunge. Nerea Luis, ingegnere informatico e PhD in AI. È una questione di calcolo matematico, non di ingegno o creatività. “La dicotomia tra umani e IA è assurda come tra umani e treni”, sottolinea Guersenzvaig.

Gli esperti concordano nel sottolineare che, sebbene non possa essere esclusa teoricamente la possibilità che un giorno raggiungano uno stato di coscienza, non vi sono indicazioni scientifiche che le macchine possano operare al momento come entità dotate di autonomia e libero arbitrio, condizioni intrinsecamente umano. “Quello che in realtà è una percezione è essere confuso come prova, il sistema di Google non ha emozioni umane, finge di averle”, aggiunge. Franco Pasqualemembro del Comitato consultivo nazionale statunitense sull’intelligenza artificiale.

Divulgazione dell’IA

Negli ultimi mesi sono diventati popolari diversi strumenti di intelligenza artificiale che possono diventare fenomeni trasformativi nel campo creativo. È il caso di GPT-3un programma in grado di generare testi più o meno elaborati, e il DALL-E 2, un generatore di immagini che crea risultati che prima non esistevano attraverso le istruzioni ordinate dall’essere umano. Quest’ultimo è facendo furore su Twitterperché gli utenti possono dare libero sfogo alla propria immaginazione e il sistema risponde con risultati tanto bizzarri quanto affascinanti, da un processo tra il rapper Snoop Dog e Snoopy un Mariano Rajoy suona al Primavera Sound.

Entrambi i programmi funzionano con reti neurali artificiali, poiché è noto che l’architettura del computer che replica il funzionamento del cervello umano consente alle macchine di risolvere problemi e fornire risposte. Entrambi i programmi sono di proprietà di OpenAIun laboratorio di ricerca sull’intelligenza artificiale di San Francisco fondato dal magnate Elon Musk e l’investitore Sam Altman. “La ricerca sull’IA è sempre più concentrata nelle mani di grande tecnologia e meno nelle università e quindi il percorso è segnato dagli interessi economici di quelle aziende” che stanno privatizzando uno spazio di interesse pubblico, avverte Luis.

Vedi anche:  questo è l'altro programma di spionaggio come 'Pegasus' con cui è stato spiato il movimento indipendentista

rischi linguistici

Negli ultimi anni, il numero di tecnologi e ingegneri di intelligenza artificiale è cresciuto, inclusi i senior manager di Google o OpenAI, che affermano che si stanno facendo progressi verso la consapevolezza della macchina. Tuttavia, gli esperti avvertono che l’uso di analogie umane ed esagerazioni per descrivere questi sistemi, replicati anche dai giornalisti, potrebbe essere un trucco di marketing per attirare maggiori investimenti e vendere meglio i loro prodotti.

Questa strategia è a doppio taglio. Il opacità è una caratteristica intrinseca dell’IA, qualcosa che si accentua quando quel sistema è di proprietà di una multinazionale di cui sospetta trasparenza. Questa condizione porta a una “brutale asimmetria delle risorse” tra le grandi aziende come Google e i ricercatori che studiano l’impatto dell’IA che mette questi ultimi in una posizione di svantaggio. “Se parliamo in un modo che normalizzi l’attribuzione dell’azione ai sistemi come se avessero la loro volontà, permettiamo ai loro creatori di stabilire le regole”, ha lamentato Guersenzvaig. “E dire che GPT-3 scrive meglio di un giornalista ci porterà a pensare che i sistemi automatizzati utilizzati nella giustizia o nella finanza siano migliori di quelli umani”.

Alla fine del 2020, Google ha espulso due dei suoi più rinomati ricercatori di etica dell’IA, Timnit Gebru Y Margaret Mitchell, dopo aver pubblicato un articolo accademico in cui, tra gli altri rischi, metteva in guardia dalla “tendenza umana a cercare il senso dove non c’è” e dalle esagerazioni che potrebbero distorcere le capacità delle macchine. Esattamente ciò che avrebbe portato Blake Lemoine a vedere l’anima di un computer in quelle che sono infinite righe di codice del computer.

Articolo precedenteQuali banche europee sono meglio preparate ad affrontare una crisi del debito?
Articolo successivoIl prodotto Mercadona che sbianca i vestiti e rimuove le macchie gialle