LA PRIMA MACCHINA SUPER INTELLIGENTE SARÀ L’ULTIMA INVENZIONE DELL’UOMO

Riccardo Tennenini

Il matematico britannico Alan Turing nel 1950 scriveva: “invece di elaborare un programma che simuli la mente adulta, perché non provare a realizzare uno che simuli la mente di un bambino? Se la sottoponiamo poi a una educazione appropriata, otterremo un cervello adulto”. Turing ha poi aggiunto: “Non possiamo aspettarci di avere una buona macchina infantile al primo tentativo. Dobbiamo sperimentare l’insegnamento su una di queste macchine e vedere come apprende. Poi, possiamo provare un’altra e verificare se va meglio o peggio”. L’apprendimento profondo (deep learning) è un algoritmo di apprendimento per sfruttare al massimo le capacità delle reti neurali artificiali ANN. La materia prima dell’IA è l’informazione. Da dove viene? Da noi stessi, che facciamo miliardi di ricerche su Internet o carichiamo quasi 10 miliardi di immagini sui social, Per il deep learning, la valanga d’immagini e dati che dilaga sul web costituisce una materia prima quasi infinita e che si rinnova ogni giorno.1 L’apprendimento delle macchine (machine learning) invece ha l’obiettivo di fornire quel tipo di educazione e istruzione di cui parla Turing alle macchine che imparano, come fanno i bambini. Questi sviluppi tecnologici, sono il risultato di tutta una serie di fattori che hanno dato modo negli anni agli algoritmi di esprimere il loro potenziale.

  • BIG DATA: la proliferazione di dati generati con l’avvento di Internet, generando un brodo primordiale cibernetico con documenti, video, immagini, etc, che le ANN impiegano per apprendere attraverso il machine learning e deep learning.
  • CLOUD COMPUTING: questa tecnologia ha permesso l’incremento delle capacità di calcolo e si è resa imprescindibile per allenare le ANN.
  • INTERNET OF THINGS: insieme con la “datizzazione” dei big data, la “smartizzazione”, con l’esplosione di dispositivi smart connessi tra loro attraverso Internet, ha permesso di assorbire una quantità infinita di dati generati dai suddetti dispositivi e gestirli tutti da un’unica IA.

Ma come si fa a sapere se un’IA è veramente intelligente? Il test di Turing, apparso per la prima volta nell’articolo Computing machinery and intelligence del 1950 sulla rivista Mind, fornisce una risposta a questa domanda. In due stanze vengono chiuse una macchina e una persona; se quest’ultima, attraverso una serie di domande, crede di parlare con una persona reale e la macchina riesce a ingannare l’intervistatore facendosi passare per un essere umano, allora si può dire che ha superato il test di Turing: secondo Turing stesso si tratterebbe della dimostrazione della sua intelligenza. Tant’è che nel 1997 Andrei Broder dal settore ricerca e sviluppo di AltaVista sviluppa i Completely Automated Public Turing-test-to-tell Computers and Humans Apart (CAPTCHA). Per determinare se l’utente sia un umano e non un computer o, più precisamente, un bot. Un test CAPTCHA generalmente utilizzato è quello in cui si richiede all’utente di scrivere quali siano le lettere o i numeri presenti in una sequenza, che appare distorta o offuscata sullo schermo. I CAPTCHA vengono dunque utilizzati per impedire che i bot utilizzano determinati servizi, come i forum, la registrazione presso siti web, la scrittura di commenti e in generale tutto ciò che potrebbe essere usato per creare spam o per violare la sicurezza con operazioni di hacking come il brute force. Questo tipo di test è stato utilizzato anche per contrastare lo spam generato da bot, obbligando il mittente di un messaggio e-mail non conosciuto dal destinatario a superare un test CAPTCHA prima di consentire la consegna del messaggio. In versioni più aggiornate il test è vocale o facciale. Una personale riproposizione del test di Turing oggi potrebbe essere fatta con le chat dei social media, dove da un lato c’è un internauta umano e dall’altro lato un bot. Se chattando non si accorge che è un bot e non una persona umana si può dire che è una dimostrazione di intelligenza da parte dell’IA. Il film The App (2019) parla proprio di questo esperimento. Niccolò, il protagonista del film, ha una vita perfetta, una fidanzata che lo ama, una famiglia perfetta e un futuro successo nel mondo del cinema. Quando una sera per scherzo Eva, la sua fidanzata, gli dice di scaricare e iscriversi a “Noi”(una app per incontri online simile a Tinder), comincia a chattare di nascosto con un utente di nome Maria, della quale s’innamora perdutamente. In questo intreccio tra cibernetico-biologico e reale-virtuale, la sua “love story” con la donna misteriosa conosciuta su “Noi” lo porterà ad isolarsi e abbandonare tutto: famiglia, fidanzata, lavoro, reputazione e persino la sua posizione sociale. Niccolò, una volta rimasto solo, avendo fatto tabula rasa delle persone intorno a lui, scoprirà che non potrà mai incontrare Maria perché lei materialmente non esiste: in realtà Maria è un bot creato dai programmatori dell’app “Noi”. Questo film è una degna rappresentazione dei digital innates che vivono in un mondo dove ormai il biologico si è rarefatto e il cibernetico ha preso il suo posto, dove anche le sensazioni più naturali dell’uomo (sentimenti, emozioni, amore, affetto) sono frutto dell’immateriale. Questa è la funzione negativa della tecnica, promossa dal liberal-capitalismo all’interno della società dei consumi. Ciò diventerà sempre più una consuetudine se si realizzerà il panopticon globale di sorveglianza biopolitica digitale. Replika è un chatBot che prova empatia nei confronti dell’uomo in virtù del modello di deep learning, che impara a pensare e a parlare con un umano a partire dalle trascrizioni dei discorsi fatti nel corso della vita.  Replika studia e impara a conoscere, attraverso una serie di domande, per imitare lo stile comunicativo. L’obiettivo che si è prefissato Eugenia Kuyda, che l’ha progettata è quello di avvicinarsi il più possibile alla realizzazione di un avatar digitale, in grado di riprodurre totalmente e di sostituirsi a noi dopo la morte. Ma è anche in grado di creare “amicizie” con altri esistenti. Kuyda, lo sta continuamente modellando emotivamente, in modo tale che sia sempre più “umano” con cui confidarsi. Con l’accelerazionismo tecnologico nel 2025 l’IA avrà le capacità di calcolo di un essere umano e, nel 2045 quella di tutta l’umanità. Una volta che l’IA sarà confrontabile con quella umana, quanto tempo passerà prima che l’IA ci superi e sia più intelligente di noi? Secondo il filosofo della Silicon Valley Nick Bostrom c’è da analizzare la velocità con la quale aumenta la potenzialità di calcolo di un computer, che raddoppia ogni 18 mesi. Una volta raggiunto lo stesso livello di intelligenza umana, secondo Bostrom essa subirà un’accelerazione che permetterà all’IA di migliorare se stessa fino a diventare una ASI. Per fare questo, Bostrom propone un modello con due variabili: Potere di ottimizzazione e Resistenza dell’intelligenza. Il primo è il tempo effettivo dedicato al miglioramento del sistema, mentre il secondo lo sforzo per produrre il miglioramento desiderato. Tre sono gli elementi necessari per migliorare un IA.

  • SOFTWARE: un software migliore implica anche migliori algoritmi.
  • HARDWARE: con processori più veloci.
  • DATA: migliorando il contenuto, quindi maggiore qualità dei dati.

Con l’emergere di questa ASI non potremo più considerare la nostra specie, come la più intelligente sul pianeta in cima alla catena evolutiva. Dopo l’avvento della ASI non ci sarà più distinzione tra esistente e macchina. Il matematico ungherese John von Neumann e lo scrittore americano di fantascienza Vernor Vinge, per descrivere questa ASI hanno voluto usare il termine scientifico “Singolarità Tecnologica”. “La singolarità ci permetterà di trascendere i limiti dei nostri corpi e cervelli biologici. Non ci sarà distinzione, dopo la singolarità tecnologica tra un essere umano e la macchina”.2 Il matematico Irving John Good, collega del più famoso matematico Alan Turing, nel 1965 scrisse: “Definiamo super intelligente una macchina che può superare ampiamente le capacità intellettuale di un essere umano, per quanto intelligente. La progettazione di tali macchine è una di queste capacità, per cui una super intelligenza sarà capace di progettare macchine ancora migliori. A quel punto avremo certamente una “esplosione di intelligenza” quella dell’uomo sarà lasciata molto indietro. Così la prima macchina super intelligente sarà l’ultima invenzione che l’uomo dovrà mai realizzare”.3

NOTE

1  L.Alexandre, La guerra delle intelligenze, intelligenza artificiale contro intelligenza umana, Edt, 2018, Torino, pag.22

2  http://www.minimaetmoralia.it/wp/la-singolarita-imperfetta/

3  http://www.efuclick.it/2018/02/01/dio-ancora-non-ce-ma-sta-arrivando-e-forse-riusciremo-a-vederlo-lavvento-di-una-super-intelligenza-artificiale-e-prossimo-e-da-esso-dipenderanno-le-sorti-del-genere-umano-ma-ne/

L’INFORMATORE DI FACEBOOK FRANCES HAUGEN CONFERMA LE NOSTRE PEGGIORI PAURE

 Jill Filipovic

FONTE: CNN

Promuovere i disordini alimentari. Facilitando, a quanto si dice, il traffico di droga e di esseri umani. Alimentando teorie di cospirazione e disinformazione così pericolose che la gente ha perso non solo la mente, ma la vita. Permettere ai gruppi estremisti di coordinarsi. Questi sono solo alcuni dei mali di cui Facebook è stato a lungo accusato da informatori, politici e critici.

Facebook nega molte di queste accuse o dice che i problemi sono più complessi di quello che sembrano. Ma martedì, Frances Haugen, un ex dipendente di Facebook che all’inizio di questa settimana ha rilasciato un’intervista esplosiva a 60 minuti, ha testimoniato davanti al Congresso che Facebook sta effettivamente danneggiando l’immagine fisica delle ragazze, dividendo la nazione e permettendo all’estremismo di prosperare – e peggio, che l’azienda lo sa, e sceglie di ignorare in gran parte il problema per proteggere i suoi profitti.

Le sue parole sono state schiaccianti. La domanda ora è se i politici americani si opporranno ad una delle aziende più potenti del mondo, o se continueranno a permettere a Facebook di rastrellare profitti a spese del pubblico – perché molti di loro beneficiano delle campagne di disinformazione che Facebook permette.

Haugen, un ex product manager di Facebook che ha lavorato su questioni di integrità civica, ha testimoniato che “i prodotti di Facebook danneggiano i bambini, alimentano la divisione, indeboliscono la nostra democrazia e molto altro”.

La ricerca interna di Facebook, ha detto, ha dimostrato quanto siano pericolosi i prodotti della società, eppure la società ha fatto poco per cambiare – timorosa, ha detto Haugen, di compromettere i propri profitti. Quella ricerca ha mostrato, per esempio, che Instagram, che è di proprietà di Facebook, è devastante per l’autostima delle ragazze:

“Peggioriamo i problemi di immagine fisica per una ragazza adolescente su tre”, ha detto una diapositiva aziendale, come riportato dal Wall Street Journal. In pubblico, però, il CEO di Facebook Mark Zuckerberg ha affermato che “La ricerca che abbiamo visto è che l’utilizzo di applicazioni sociali per connettersi con altre persone può avere benefici positivi per la salute mentale” – parole che ha pronunciato sotto giuramento in un’udienza del Congresso a marzo.

Edizione cartacea

Edizione Kindle

La stessa inchiesta del Journal ha mostrato che gli utenti di Facebook nei paesi in via di sviluppo – potenziali aree di crescita per l’azienda – stavano usando la piattaforma per tutti i tipi di attività illegali, compreso il traffico di droga e di esseri umani. Facebook, secondo il rapporto del Journal, era lento a rispondere anche quando sapeva cosa stava succedendo.

Haugen ha raccontato storie simili. Ha anche detto al Congresso che Facebook ha la capacità di regolare meglio il suo prodotto – per impedire più efficacemente che la piattaforma venga utilizzata per attività illegali, per identificare gli utenti minorenni e presentare i loro contenuti di conseguenza, e per prevenire la diffusione di pericolosa disinformazione.

L’algoritmo di Facebook, ha detto Haugen, organizza i contenuti in base all’impegno, il che può portare i post più infiammatori e scioccanti a ricevere un trattamento preferenziale e a spostarsi in cima al feed di una data persona. Essenzialmente, l’azienda prende decisioni su ciò che vuole che tu veda, e mantiene queste decisioni segrete al pubblico, secondo Haugen; cambiare l’algoritmo, ha detto, potrebbe avere un impatto sui guadagni dell’azienda.

SUPPORTA LA VERA CONTROCULTURA

Questo è pericoloso – soprattutto perché la violenza può seguire il tipo di indignazione che l’algoritmo di Facebook sembra destinato a favorire. Il mondo ha già visto questo in diversi paesi. In Myanmar, l’azienda ha ammesso di non essere riuscita a impedire alla sua piattaforma di incitare alla “violenza offline” nel 2018. In Etiopia, i critici hanno accusato la società di social media di aver permesso la diffusione di disinformazione durante le proteste nel paese nel 2019. E negli Stati Uniti, molti degli insorti che hanno lanciato un attacco al Campidoglio il 6 gennaio si sono organizzati tramite Facebook.

L’azienda nega di aver commesso errori nei disordini del Campidoglio: “La responsabilità per la violenza del 6 gennaio è delle persone che hanno inflitto la violenza e di coloro che li hanno incoraggiati, compreso il presidente Trump”, ha detto il vice presidente di Facebook per gli affari globali Nick Clegg a Brian Stelter della CNN domenica.
Coerentemente, Haugen ha detto, Facebook ha messo “i profitti prima delle persone”.

Facebook, da parte sua, ha cercato di minare la credibilità di Haugen, dicendo in una dichiarazione che “Oggi, una sottocommissione del Senato sul commercio ha tenuto un’udienza con un ex product manager di Facebook che ha lavorato per l’azienda per meno di due anni, non ha avuto rapporti diretti, non ha mai partecipato a un incontro decisionale con dirigenti di livello C – e ha testimoniato più di sei volte di non aver lavorato sulla materia in questione. Non siamo d’accordo con la sua caratterizzazione delle molte questioni su cui ha testimoniato. Nonostante tutto questo, siamo d’accordo su una cosa; è tempo di iniziare a creare regole standard per internet. Sono passati 25 anni da quando le regole per internet sono state aggiornate, e invece di aspettarsi che l’industria prenda decisioni sociali che appartengono ai legislatori, è tempo che il Congresso agisca”.

Facebook è lungi dall’essere l’unica fonte di disinformazione nel mondo – i media conservatori, e anche i membri del Partito Repubblicano negli Stati Uniti, hanno certamente parte della colpa. All’udienza di Haugen, la senatrice repubblicana del Tennessee Marsha Blackburn ha affermato, senza prove, che 1,5 miliardi di utenti di Facebook hanno avuto i loro dati violati e venduti online.

SOSTIENI IL NOSTRO crowdfunding

La rappresentante del GOP della Georgia Marjorie Taylor Greene detiene ancora un seggio al Congresso, nonostante sia una fonte di cospirazionismo, dal credere che l’11 settembre sia stato un lavoro interno al diffondere oltraggiose teorie del complotto sul massacro dei bambini della scuola elementare di Sandy Hook e sugli incendi della California. E Trump è forse il Chief Misinformation Officer della nazione – molto di ciò che i critici preoccupati stanno chiedendo a Facebook di regolare sono teorie di cospirazione e bugie che provengono dai fan dell’ex presidente, così come l’uomo stesso.

Questo rende questo momento una sfida. La testimonianza di Haugen sui pericoli di Facebook, e il suo rifiuto di regolarsi adeguatamente, dovrebbe essere un appello al Congresso ad agire. Ma cosa farà il Congresso dato che il partito repubblicano e la sua base sono andati così fuori dai binari che la verità e la realtà, per prendere in prestito le parole del comico Stephen Colbert, ora hanno un ben noto pregiudizio liberale?

La buona notizia è che sia i repubblicani che i democratici sembrano almeno allineati sulla stretta questione del benessere dei bambini, e dicono di voler prendere provvedimenti per proteggere i minori che usano i social media – anche se non è ancora chiaro quali saranno questi provvedimenti. Ma questo è solo un pezzo di un vasto problema. E mentre le campagne di disinformazione avvengono sia a destra che a sinistra, il problema non è uguale da entrambe le parti – un numero scioccante di politici repubblicani sono fornitori regolari di bugie pericolose, e molti di loro beneficiano e permettono ai loro elettori il crescente estremismo e il divorzio dalla realtà.

C’è bisogno di molta più sorveglianza sul modo in cui aziende irresponsabili e segrete come Facebook operano e modellano invisibilmente tutte le nostre vite. Ma mentre i politici americani stanno giustamente cercando di capire come tenere a freno i potenti giganti della tecnologia, dovrebbero anche guardarsi intorno nelle sale del potere che occupano e rendersi conto che le bugie e la disinformazione che stanno distruggendo il paese non vengono solo dalla Silicon Valley – vengono anche dall’interno della Camera.

SOSTIENI IL SAPERE LIBERO E INDIPENDENTE