A.I. Il Mito dell'Intelligenza Artificiale
Intro.
La mistificazione ha sempre governato il mondo. Nell'antichità i leader religiosi sulla scorta di un rapporto di rappresentatività vantato nei confronti della divinità, imponevano leggi dure ed intransigenti, ma 'eque e giuste' per definizione. Quando il pretesto della religione iniziò a mostrare segni di obsolescenza, la mistificazione assunse la forma dell'utopia democratica, ed ogni responsabilità fu distribuita tra i membri della casta di personaggi politici 'votati dal popolo.' Ora che anche l'immaginario democratico rappresentativo ha iniziato a decomporsi, sembra che i mistificatori stiano lavorando alla realizzazione di nuove illusioni che siano al passo coi tempi.
Ad iniziare dall'affascinante quanto irrealizzabile concetto di democrazia diretta, per proseguire con soluzioni più ardite come l'invenzione di una casta di potenti sovrani alieni, oppure il mito di un'intelligenza artificiale onnisciente, intransigente, ma 'equa e giusta' per definizione.
Non è improbabile che il concetto di intelligenza artificiale così costantemente alimentato dai media, intenda seminare nell'inconscio collettivo l'idea che in un futuro neanche troppo lontano la società umana sarà amministrata non più da una casta di inaffidabili esseri umani, bensì da un'intelligenza artificiale, la quale ne saprà molto più di qualsiasi intelligenza biologica, quindi giù il cappello.
La mistificazione ha sempre governato il mondo ed intende continuare a farlo. Purtroppo.
Buona lettura.
Perché l'Intelligenza Artificiale è Semplicemente Impossibile.
di L. de Brabandere
Traduzione di Anticorpi.info
Bruxelles - Ai bambini di una scuola elementare è stato chiesto di completare la seguente frase: "Il gatto ha ... zampe ed il corvo ...". Coscientemente, gli scolari hanno riempito gli spazi vuoti con i numeri quattro e due. O meglio, tutti gli scolari eccetto uno, che invece ha scritto: "Il gatto ha dolore alle zampe ed il corvo è triste."
La risposta fornita indica che quello scolaro sia in qualche modo meno intelligente di tutti gli altri? Ovviamente no. Di sicuro ha un'intelligenza diversa, più insolita della media. Non pensa allo stesso modo del resto dei propri compagni di classe, ma questo non significa che non la pensi altrettanto bene, o perfino meglio.
I cosiddetti 'test di intelligenza' offrono poche informazioni sulle reali capacità intellettuali. Equivalgono a voler valutare un'abitazione in base a ciò che si trova nel suo frigo. Si tratta di metodologie risalenti ad un'epoca in cui l'intelligenza era equiparata alle abilità logiche e matematiche di calcolare, classificare, estrapolare e dedurre. Di conseguenza le relative valutazioni sono ben lontane dal misurare la reale intelligenza, dal momento che essa è composta a propria volta dalla risultante dell'integrazione di numerosi tipi di intelligenza. L'intelligenza è come il gruppo sanguigno: nessuno è migliore degli altri, ma alcuni gruppi sono più diffusi. La questione del livello di intelligenza di un individuo è quindi meno importante del genere della sua intelligenza.
Fortunatamente dagli anni '80 e dall'emergere del lavoro di accademici come lo psicologo americano Howard Gardner, la pluralità delle intelligenze è stata riconosciuta, così come la necessità di combinarle per una valutazione più congrua. Addirittura oggi abbiamo diverse nuove teorie scientifiche che implicano il concetto della multiformità dell'intelligenza umana! Lo stesso Gardner ha aggiunto una nuova forma di intelligenza alle tipologie individuate al tempo della pubblicazione dei propri studi.
Oltre alle capacità deduttive, matematiche e logiche esistono - tra le altre - l'intelligenza musicale (sensibilità a suoni e ritmi), l'intelligenza fisica (la quale riesce a sfruttare al meglio il potenziale di tutte le parti anatomiche), intelligenza relazionale od emotiva (la capacità di identificare i sentimenti e le intenzioni del prossimo), l'intelligenza visiva (che ci consente di immaginare qualcosa da trasformare in realtà, e di spostare oggetti nello spazio) e l'intelligenza del linguaggio (la capacità di pensare con le parole).
Quasi nessuna di queste funzioni interconnesse può essere programmata in modo tale da essere eseguita da una macchina. Un computer può riconoscere un viso, ma non può trovarlo interessante. Un computer ha memoria, ma non può evocare ricordi. Può produrre immagini, ma non possiede la capacità di immaginare. Un computer può imparare dai propri errori, ma non può provare rimorso. Può confrontare le idee, ma non può generarne di spontanee ed originali.
Ciò che chiamiamo 'intelligenza' non è affatto un'abilità unica, ma piuttosto un insieme di abilità, innate ed acquisite, che agiscono sinergicamente e di volta in volta richiedono di prendere una decisione sul conoscere o l'ignorare, sull'essere emotivi o distaccati, sul formulare nuove domande e sul cercare nuove risposte. Tutte abilità inscindibili da sentimenti non sintetizzabili come la sorpresa, la curiosità, le intuizioni, l'allegria, la tristezza, le risate.
L'essenza dell'intelligenza risiede nella sua esclusività umana, e non è possibile replicarla all'interno di qualcosa di artificiale. Se l'intelligenza diventasse artificiale, il risultato sarebbe qualcosa di completamente diverso dall'intelligenza umana. Tuttavia il tema continua ad essere sollevato ancora e ancora dai media. Non appena un computer sconfigge un essere umano in qualche gioco di logica, riecco spuntare il mito dell'intelligenza artificiale.
I computer potranno sgravarci da molte faccende noiose, ma questo non significa che ci renderanno liberi. Potranno aiutarci a prevedere una situazione, ma non a desiderarla. Potranno aiutarci a trovare informazioni, ma non potranno ricreare l'alchimia della curiosità umana. Potranno analizzare come vanno le cose, ma non riusciranno a comprendere il significato filosofico di simili valutazioni.
* Luc de Brabandere è un matematico e consulente senior presso l'ufficio parigino del Boston Consulting Group.
-----------
il pensiero di Jaron Lanier
di J. Brockman
Traduzione di Anticorpi.info
Molti di noi rimasero inorriditi alcuni anni fa quando la Corte Suprema americana decise improvvisamente di pronunciarsi su una questione che nessuno le aveva chiesto di giudicare, e dichiarò che le multinazionali siano persone. Si trattò di una manovra finalizzata a facilitare l'influenza politica dei grandi capitali. Ma c'è un altro punto di vista che non credo sia stato molto considerato: le società tecnologiche - che stanno diventando le più redditizie, quelle in più rapida ascesa, le più ricche, con il maggior denaro a disposizione - sono anch'esse persone per un motivo diverso. Perché sono - essenzialmente - degli algoritmi.
Se esamini aziende come Google o Amazon e molte altre simili, ti accorgi che forse fanno un minimo di produzione diretta di beni, ma l'unica ragione per cui lo fanno è quella di instaurare un canale di comunicazione tra persone ed algoritmi. Gli algoritmi sono alla base del funzionamento di queste grandi infrastrutture informatiche.
La distinzione tra una società ed un algoritmo sta svanendo. Può questo far si che un algoritmo sia considerato una persona? Abbiamo questa interessante confluenza tra due mondi completamente diversi. Abbiamo il mondo del denaro e della politica e la cosiddetta Corte Suprema conservatrice, e poi questo altro mondo che potremmo definire 'cultura dell'intelligenza artificiale', il quale è un movimento all'interno della cultura tecnologica che vorrebbe trovare un'equivalenza tra i computer e le persone. In entrambi i casi abbiamo una tradizione intellettuale che risale a molti decenni orsono. In precedenza i due mondi erano stati separati. Ora, improvvisamente si sono incrociati.
Il concetto secondo cui i computer sarebbero 'persone' ha una storia lunga e leggendaria. Risale alle origini stesse dei computer, ed anche oltre. Nell'aria è sempre fluttuata l'idea secondo cui un programma fosse qualcosa di vivo, alla luce delle relative facoltà di autonomia insite nella definizione stessa di 'programma.' Una prepotente sottocultura - la sottocultura più ricca, prolifica ed influente nel mondo tecnico - per molto tempo ha promosso l'idea che vi sia una qualche equivalenza tra algoritmi e vita, e tra specifici algoritmi e persone umane; un determinismo storico sottoculturale secondo cui staremmo per dare alla luce dei computer che saranno più intelligenti e migliori di noi, e che quindi ci sostituiranno.
Questa mitologia ha stimolato un perpetuo spasmo reazionario da parte di molta gente orripilata da simili prospettive. Qualcuno che dice I computer prenderanno il controllo della Terra, ma questa è una buona cosa, perché le persone hanno avuto la loro occasione ma l'hanno sprecata, ed adesso è tempo che lascino il campo alle macchine. Di rimando qualcun altro risponde: Oh, è orribile, dobbiamo fermare questi computer! Più di recente, alcune delle figure più amate e rispettate nel mondo della tecnologia e della scienza - tra cui Stephen Hawking e Elon Musk - hanno assunto una posizione che si può riassumere in questi termini: Oh mio Dio, queste cose sono una minaccia esistenziale! Devono essere fermate!
In passato molti personaggi di diversa estrazione hanno paventato simili eventi, ciascuno ricorrendo ad una diversa terminologia. Alcuni favorevoli all'idea che i computer prendano il sopravvento, altri no. Quello che mi piacerebbe fare qui oggi è suggerire che l'intero fondamento di questo 'dibattito', per quanto sia del tutto inconsistente, stia arrecando un danno reale alla società ed alle nostre capacità come ingegneri e scienziati.
Un buon punto di partenza potrebbe essere la recente iniezione di ansia da intelligenza artificiale, alimentata da alcune figure che stimo moltissimo, tra cui Stephen Hawking ed Elon Musk. Insomma, è difficile accogliere con indifferenza le parole di un rinomato e rispettato esperto mondiale che manifesta la propria preoccupazione circa le macchine che diventeranno intelligenti, prenderanno il sopravvento e ci distruggeranno. La mia sensazione è che tutto questo polverone sia una specie di modo non ottimale e sciocco per esprimere preoccupazione circa la direzione intrapresa dalla tecnologia in generale.
La più grande minaccia derivante dalla IA è probabilmente quella che scaturisce dal fatto che nella realtà dei fatti, l'IA comunemente intesa non esiste, perché l'idea stessa è una frode, o perlomeno un concetto così mal costruito da essere fasullo. In altre parole, se l'intelligenza artificiale fosse una cosa reale, probabilmente sarebbe meno pericolosa per noi di quanto lo sia il mito fasullo sorto intorno alle tecniche assimilate al concetto di intelligenza artificiale.
Cosa intendo dire? Che questo dibattito aggiunge uno strato di pensiero religioso a ciò che altrimenti dovrebbe essere un campo esclusivamente tecnico. Ora, se parliamo delle particolari sfide a cui i ricercatori sulla IA sono interessati, ci ritroviamo ad avere a che fare con concetti che suonano molto più banali, ma anche molto più plausibili.
Ad esempio, parliamo di classificazione dei modelli. Puoi ottenere programmi capaci di riconoscere i volti. Si tratta di un campo in cui sono stato attivo. Ero il capo scienziato della compagnia che Google ha rilevato qualche tempo fa. Ed adoro quella roba. È un campo meraviglioso ed è stato meravigliosamente utile.
Ma quando questi campi di ricerca tecnica vengono 'arricchiti' con implicazioni religiose che riecheggiano il mito di Frankenstein, secondo cui un giorno simili ricerche condurranno alla creazione di una vita artificiale, e che questa vita artificiale ci sarà superiore a dunque sarà pericolosa ... ebbene quando fai tutto questo, stai innescando molte conseguenze negative che minano la pratica ingegneristica, minano il metodo scientifico e minano l'economia ad esso correlata.
Il problema non risiede in queste particolari tecniche in via di sviluppo - che trovo affascinanti ed utili e che a mio avviso dovrebbero essere esplorate e sviluppate di più - ma nella mitologia distruttiva che le circonda. Citerò un paio di implicazioni pratiche negative scaturenti da questa mitologia.
La cosa più ovvia - ben chiara a chiunque operi in qualsiasi campo correlato - è che ogni tot di anni ritornano quelli che a volte sono stati definiti inverni dell'IA, in cui vengono a crearsi ampie aspettative irrealistiche su ciò che le IA sarebbero in grado di fare. Ad esempio ci si aspettava che nascesse una nuova categoria da veicoli completamente autonomi, piuttosto che i normali veicoli diventassero parzialmente autonomi; oppure ci si aspettava che l'IA potesse sostenere una conversazione libera e completa con l'essere umano, piuttosto che riuscire a sviluppare una capacità di conversazione limitata, ma capace di facilitare l'interfaccia con un dispositivo.
Questo tipo di aspettative irrealistiche conduce ad una forte delusione, e la cosa finisce per rispecchiarsi in una riduzione dei finanziamenti e nel fallimento di molte start-up, con conseguente disastrose per molte carriere, e tutto ciò accade periodicamente, ed è un peccato. Questo settore ha distrutto molte carriere. Ne ha anche lanciate molte in orbita, ma la cosa ha luogo con modalità casuali, a seconda se il tuo operato abbia luogo nella fase espansiva o in quella di contrazione. Si tratta di un approccio immaturo e ridicolo. E questa è una critica ampiamente condivisa. Non sto dicendo nulla di insolito.
Esaminiamo un altro livello di disfunzionalità. E questo ha a che fare con la semplice chiarezza dell'interfaccia utente, e quindi si trasforma in un effetto economico. Le persone sono creature sociali. Vogliamo essere piacevoli, vogliamo andare d'accordo. Tutti noi abbiamo imparato ad adattarci in modo da poter far parte del mondo. Se un programma ci dice: bene, la verità è questa; questo è ciò che sei; questo è quello che ti piace; questo è quello che dovresti fare, di solito abbiamo la tendenza ad assecondarlo.
Dato che la nostra economia si è spostata su ciò che definisco economia della sorveglianza - diciamo un'economia in cui gli algoritmi tendono molto ad indirizzare le persone - abbiamo questa situazione molto strana con algoritmi basati su grandi dati, i quali ci suggeriscono a chi chiedere l'amicizia, con chi dovremmo uscire ed andare a letto, che tipo di musica dovremmo ascoltare, quali libri dovremmo leggere, e ancora e ancora e ancora. E la gente spesso accetta simili indicazioni perché in realtà non esiste un'alternativa empirica per verificarle; non esiste una base di riferimento. Si tratta di cattiva scienza personale. Cattiva auto-comprensione.
Vi fornirò alcuni esempi di cosa intendo. Iniziamo con Netflix. Su Netflix non è che ci siano tantissimi contenuti. C'è una certa scarsità di contenuti. Se pensi a qualche film in particolare che potresti voler vedere, è probabile che non sia disponibile nel loro catalogo per lo streaming. Eppure c'è questo motore di raccomandazione che fornendo consigli ha l'effetto di servire da copertura per distrarti dal fatto che non ci sia molta roba disponibile. E la gente lo considera un sistema intelligente, anche perché in effetti molto di ciò che è disponibile va perfettamente bene.
Non sto incolpando Netflix di fare qualcosa di male, perché l'intero punto di Netflix è quello di elargirvi quotidianamente illusioni teatrali, e alla fine questo stratagemma non è che un ulteriore strato di quelle stesse illusioni. E' come un buon imbonitore. Non esiste un teatro senza un imbonitore per strada. Questo è, e va bene. Tuttavia a livello macro contribuisce a diffondere questa generale tendenza ad accettare che gli algoritmi siano in grado di fare molto più di ciò che in realtà possono fare. Nel caso di Netflix - ad esempio - il motore dei consigli serve a distrarti dal fatto che non ci sia molta scelta.
Ci sono altri casi in cui il motore dei consigli non svolge al meglio la propria funzione, perché magari la scelta è ricca, ma gli elementi raccomandati non sono appropriati. Il problema è che non avete modo di rendervi conto che quegli elementi non sono appropriati, perché non c'è modo di rapportarli ad una selezione alternativa, quindi non avete la minima idea di ciò che sarebbe dovuto essere il consiglio appropriato. Ho avuto la possibilità di lavorare su questo tipo di algoritmi, e sono interessanti ma anche molto, molto sopravvalutati.
Con ciò voglio arrivare a citare un problema ancora più profondo, ovvero che in questi sistemi non è possibile individuare il confine tra misurazione e manipolazione. Ad esempio, se la teoria è quella di individuare i consigli trattando grandi quantità di dati estrapolati dall'osservazione del comportamento di un sacco di persone che fanno delle scelte, la metodologia vale zero se la preponderanza di quelle persone è cresciuta nel sistema e dunque compie le proprie scelte sulla base degli indirizzamenti assorbiti precedentemente dal sistema.
In altre parole, l'unico modo per legittimare una simile metodologia sarebbe quello di avere un osservatorio capace di operare in un ambito non inquinato dai propri stessi consigli. Altrimenti la metodologia si trasforma semplicemente in una misurazione di quali manipolazioni funzionano e quali no. Questa è una cosa abbastanza chiara. Ciò che non è chiaro è dove si trovi il confine.
Se chiedi: un motore di raccomandazione come Amazon equivale più ad un dispositivo manipolativo oppure ad un legittimo dispositivo di misurazione? Non c'è modo di saperlo. A questo punto non c'è più modo di saperlo perché è troppo universale. La stessa cosa si può dire di qualsiasi altro sistema di big data che suggerisca comportamenti alle persone, che si tratti del business pubblicitario di Google, o dei social network come Facebook che decidono ciò che preferisci vedere, o una qualsiasi delle innumerevoli app di appuntamenti online. Non possiamo sapere dove finisce la misurazione e dove inizia la manipolazione.
Le app di appuntamenti hanno sempre un elemento di manipolazione; i consigli per lo shopping hanno sempre un elemento di manipolazione; in un certo senso, molte delle tecnologie che oggi la gente usa per orientarsi celano un lato manipolativo. Il che non è necessariamente una cosa terribile, o la fine del mondo. Tuttavia è importante comprendere bene il concetto, se questo tipo di tecniche stanno diventando la base dell'economia e dell'intera civiltà. Se le persone continueranno a decidere quali libri leggere sulla base di un motore dei consigli che non si riferisca ad una popolazione vergine - non 'consigliata' e non manipolata - allora l'intera faccenda andrà fuori controllo e perderà qualsiasi significato. Il che magari non comporterà un incremento del male nel mondo, ma di certo comporterà un incremento dell'assurdità nella società. Ad una sorta di incompetenza di massa, al contrario di Skynet dei film Terminator. Questo è uno dei reali danni potenziali producibili da questo tipo di IA.
Per andare ancora più a fondo nel problema, esaminiamolo da un punto di vista strettamente economico. Il punto di accesso più semplice per comprendere il legame esistente tra il modo religioso di approcciarsi all'intelligenza artificiale e l'economia reale, sono le tecniche di traduzione automatica del linguaggio. Se qualcuno me ne ha già sentito parlare mi scuso, ma continua ad essere l'esempio più comprensibile.
Per trent'anni il mondo dell'IA si è dato da fare per implementare un algoritmo ideale, piccolo, cristallino, capace di prendere i dizionari di due lingue, metterli in connessione e realizzare perfette traduzioni. Intellettualmente l'idea nacque negli anni '50 al MIT ed a Stanford. Non era una cattiva idea, teoricamente sembrava legittima, perfettamente ragionevole da testare. Tuttavia nel tempo questo approccio è fallito, in quanto quel tipo di connessione si dimostrò irrealizzabile.
Infine - negli anni '90 - i ricercatori della IBM e di altri paesi intuirono che il sistema migliore per realizzare qualcosa di analogo era sfruttando ciò che oggi definiamo 'big data'; che nel caso specifico consiste in un sistema di raccolta dati mediante cui archiviare un'enorme quantità di frasi pre-formulate, denominate corpus. In altre parole, se archivi un numero abbastanza elevato ed eterogeneo di frasi pre-formulate, puoi integrare esempi di traduzioni reali frase per frase con nuovi documenti da tradurre. Cerchi di comporre alla bell'e meglio e finisci per ottenere qualcosa che in effetti è leggibile. Non è perfetto, non è formalmente inappuntabile, non è necessariamente corretto, ma è utilizzabile. E sapete una cosa? È fantastico. Adoro l'idea che anziché trovare un traduttore e aspettare che mi faccia il lavoro, possa avere in mano qualcosa di approssimativo subito, perché spesso è tutto ciò che mi serve. Si tratta di un vantaggio per il mondo. Sono felice che sia stato fatto. È una grande cosa.
Tuttavia qui l'aspetto che dobbiamo notare è che - proprio a causa della mitologia dell'IA - questo servizio di traduzione viene percepito come mistico e magico. L'IBM ha fatto un dramma per aver creato queste entità a cui danno nomi diversi in momenti diversi: Deep Blue e via discorrendo. Le aziende tecnologiche di consumo tendono a metterci di fronte ad entità apparentemente magiche come Siri o Cortana. Il problema però è che questi non sono affatto servizi autonomi.
In altre parole, se torni ai dibattiti filosofici sull'IA di un tempo, si parlava di dispositivi indipendenti, capaci di fare qualcosa - ad esempio comprendere e tradurre il linguaggio - senza bisogno di essere continuamente imboccati.
Ma le cose non stanno affatto in quel modo. La realtà è che l'indipendenza è un'illusione; la realtà è che dietro le quinte di questi algoritmi apparentemente indipendenti, ci sono letteralmente milioni di traduttori umani che si impegnano giorno dopo giorno ad aggiungere nuove frasi pre-formulate. Questo perché non è possibile archiviare un unico corpus il quale possa andar bene per sempre. Per alimentare questo sistema è invece necessario aggiornare continuamente il corpus, dal momento che il mondo dei riferimenti, dell'attualità e dello slang cambia continuamente. E' quindi necessario appoggiarsi all'apporto di milioni di traduttori volontari che a loro insaputa, ogni giorno, rendono possibile il funzionamento di un servizio generalmente percepito come mistico e magico ed autonomo.
Il problema qui dovrebbe essere chiaro, ma lasciatemelo esporre più esplicitamente: nessuno sta retribuendo le persone che aggiornano il corpus di cui abbiamo bisogno per far funzionare gli algoritmi 'intelligenti' del servizio di traduzione. Per creare questa illusione che esista una creatura artificiale capace di leggere autonomamente le nostre frasi, pensarci su e poi tradurle - dobbiamo ignorare tutte le persone che inserendo i loro contributi rendono possibile la sua esistenza. Tutto ciò comporta delle conseguenze economiche negative.
E qui secondo me il discorso si fa serio. Un grosso problema. Se parli con i traduttori tradizionali, ti rendi conto di come la loro categoria professionale stia affrontando una situazione difficile, analoga a quella vissuta da molte categorie lavorative rese obsolete dall'avvento dell'era digitale. Per i traduttori in realtà esisterebbe l'opportunità di continuare ad esercitare la loro professione proprio nel mondo della traduzione in tempo reale ...
Quello che è successo qui è che i traduttori non sono stati resi obsoleti dall'IA. Esiste una struttura informatica attraverso cui vengono messi a frutto gli sforzi compiuti da persone reali per alimentare il sistema delle traduzioni artificiali, ma al di là di quella struttura, il lavoro di quelle persone resta indispensabile.
Questo modello di intelligenza artificiale funziona solo con l'ausilio di una branca di ciò che chiamiamo big data, tuttavia le persone che contribuiscono alla sua esistenza mediante il loro personale apporto a big data, non vengono pagate, tendenza del tutto insostenibile, in aumento nella nostra civiltà. Sempre più persone non vengono retribuite per i contributi che forniscono al mantenimento di big data. (...)
Insomma, se ci riferiamo all'IA come ad un insieme di tecniche, come ad un campo di studi matematici o ingegneristici, allora potremo ricavarne dei benefici. Se invece ci mettiamo a fantasticare del mito della creazione di una specie post-umana, questo approccio crea una serie di problemi che includono l'accettazione di algoritmi errati in cui non si può capire se si viene manipolati o no. Crea incompetenza, perché non sai se i consigli impartiti dall'intelligenza artificiale provengono da qualcosa di reale o solo da profezie auto-avveranti create da un sistema manipolativo auto-alimentato. Crea scompensi economici perché qualcuno sta traendo grandi profitti dallo sfruttamento di milioni di persone che contribuiscono gratuitamente ad aggiornare il sistema e la rete.
Per tutti questi motivi, il vero problema è la mitologia sorta intorno alla tecnica, non la tecnica stessa. (...)
C'è un fenomeno sociale ed ideologico che va avanti da qualche decennio: un nucleo di persone tecnicamente competenti e digitalizzate che rifiuta le religioni e le superstizioni tradizionali. Si sono proposti di elaborare un quadro migliore e più scientifico. Ma poi ricreano le versioni di quelle vecchie superstizioni religiose! Nel mondo tecnico queste superstizioni sono altrettanto confuse e altrettanto dannose delle precedenti, e lo fanno in modo del tutto simile.
A mio parere, la mitologia sorta intorno all'IA è un ritorno di alcune delle idee tradizionali circa la religione, applicate al mondo tecnico. Tutti i potenziali danni di questo approccio sono essenzialmente immagini speculari del danni che la religione ha causato in passato.
Anche qui abbiamo la profezia di una soglia, una fine di giorni. Questa soglia viene chiamata intelligenza artificiale, o un nuovo tipo di creatura che venendo alla luce acquisirebbe il potere supremo ed opprimerebbe le persone.
La nozione di questa soglia particolare, che a volte viene definita 'singolarità', o 'super-intelligenza', o ogni sorta di termine diverso a seconda del periodo, è qualcosa di molto simile ad una certa idea di divinità. Naturalmente non a tutte le idee circa la divinità, ma ad un certo tipo di idee superstiziose. Un'entità suprema che gestirà il mondo, alla quale forse potrai chiedere favori, verso la quale forse potrai dirigere le tue preghiere, che forse potrai influenzare, ma che governerà il mondo e tu dovresti sentirti in soggezione nei suoi confronti.
Si tratta di una particolare idea la quale si è sempre dimostrata disfunzionale nella storia umana. È disfunzionale ora, nel distorcere il nostro rapporto con la nostra tecnologia. Fu disfunzionale in passato esattamente allo stesso modo, distorcendo il nostro rapporto con Dio. Solo le parole sono cambiate.
Nella storia della religione organizzata è spesso accaduto che le persone siano state private di potere proprio con la motivazione di dover servire quelle che erano percepite come le necessità di una divinità, dove in realtà quello che stavano facendo era sostenere una classe d'elite che coincideva con il sacerdozio di quella divinità.
Tutto ciò mi sembra terribilmente simile alla nuova economia digitale, dove si hanno traduttori (in linguaggio naturale) e chiunque altro contribuisca al corpus che consente il funzionamento dei programmi di elaborazione dei dati, elogiato perché parte integrante del 'grande progetto' ma soprattutto perché lavora gratuitamente per coloro i quali gestiscono i servizi. La nuova élite potrebbe dire: "Bene, ma tutte queste persone stanno contribuendo all'intelligenza artificiale, mica lo stanno facendo per aiutare noialtri." A me questo ragionamento ricorda qualcuno che diceva: "Oh, costruite queste piramidi per rendere servizio a questa divinità", ma in realtà la gente lavorava per realizzare i progetti di un'élite. È un effetto economico della nuova idea. L'effetto della nuova idea religiosa dell'IA è molto simile all'effetto economico della vecchia idea, la religione.
C'è una qualità incredibilmente retrograda nella mitologia dell'IA. So di averlo già detto, ma devo ribadire che questa non è una critica verso specifici algoritmi.
Anche qui, si può tracciare un'analogia con i principi e le idee che la religione tradizionale è stata capace di alimentare. Bisogna solo imparare a discernere quale sia la parte giusta e naturale, e quale la parte strumentalizzabile e quindi controproducente. Stesso discorso vale per l'intelligenza artificiale.
Si tratta di un tema difficile da discutere, perché il vocabolario accettato ti mina ad ogni svolta. Ed anche qui si possono riscontrare similitudini con le religioni tradizionali. Se parlo di intelligenza artificiale, sto parlando del particolare lavoro tecnico o della mitologia che influenza il modo in cui ci è stata fatta percepire dalla nostra società? Bene, il vocabolario tipico non ci dà modo di differenziare le due cose. Ed ecco che tutto diventa molto confuso.
Se AI significa questa mitologia di una nuova creatura che staremmo creando, allora si tratta solo di uno stupido disordine che confonde tutti e nuoce al futuro dell'economia. Se ciò di cui stiamo parlando è un insieme di algoritmi che possiamo migliorare ed applicare in diversi modi pratici ed utili (ma pericolosi, perché abusabili - ed abusati - per fini politici - ndt), allora il discorso mi interessa e mi sento parte attiva della comunità che sta migliorando queste cose.
Sfortunatamente, il vocabolario standard non ci fornisce un buon modo di distinguere questi due elementi completamente opposti. Potrei provare a coniare alcune frasi, ma per il momento dirò solo che si tratta di due cose completamente diverse che meriterebbero di essere definite mediante terminologie completamente diverse. Ancora una volta, questo problema del vocabolario è antico ed è riscontrabile allo stesso modo nelle religioni tradizionali. Questo crea un ulteriore strato di potenziale confusione e differenziazione, un insieme di grandi equivoci da sottolineare continuamente, fino alla noia, perché farlo è diventato essenziale.
* Jaron Lanier è un informatico, compositore e saggista statunitense, noto per aver reso popolare la locuzione 'virtual reality' (realtà virtuale, di cui è peraltro considerato un pioniere).
Sintesi di due articoli in lingua inglese
Link diretti:
https://www.worldcrunch.com/opinion-analysis/why-artificial-intelligence-is-simply-impossible
https://www.edge.org/conversation/jaron_lanier-the-myth-of-ai
Traduzione a cura di Anticorpi.info
La mistificazione ha sempre governato il mondo. Nell'antichità i leader religiosi sulla scorta di un rapporto di rappresentatività vantato nei confronti della divinità, imponevano leggi dure ed intransigenti, ma 'eque e giuste' per definizione. Quando il pretesto della religione iniziò a mostrare segni di obsolescenza, la mistificazione assunse la forma dell'utopia democratica, ed ogni responsabilità fu distribuita tra i membri della casta di personaggi politici 'votati dal popolo.' Ora che anche l'immaginario democratico rappresentativo ha iniziato a decomporsi, sembra che i mistificatori stiano lavorando alla realizzazione di nuove illusioni che siano al passo coi tempi.
Ad iniziare dall'affascinante quanto irrealizzabile concetto di democrazia diretta, per proseguire con soluzioni più ardite come l'invenzione di una casta di potenti sovrani alieni, oppure il mito di un'intelligenza artificiale onnisciente, intransigente, ma 'equa e giusta' per definizione.
Non è improbabile che il concetto di intelligenza artificiale così costantemente alimentato dai media, intenda seminare nell'inconscio collettivo l'idea che in un futuro neanche troppo lontano la società umana sarà amministrata non più da una casta di inaffidabili esseri umani, bensì da un'intelligenza artificiale, la quale ne saprà molto più di qualsiasi intelligenza biologica, quindi giù il cappello.
La mistificazione ha sempre governato il mondo ed intende continuare a farlo. Purtroppo.
Buona lettura.
"Gli esseri umani sono diventati così ossessionati dall'innovazione da aver completamente ignorato la propria anima. E tra questi esseri umani ossessionati dall'innovazione, i cosiddetti transumanisti sono il gruppo più illuso, perché non hanno la minima idea di alcun tipo di ordine nella mente umana, eppure si vantano di sviluppare tecnologie avanzate finalizzate a fondere la mente con la macchina - e la cosa più interessante da notare qui è che non hanno la minima idea di non avere la minima idea."-------
Abhijit Naskar
Perché l'Intelligenza Artificiale è Semplicemente Impossibile.
di L. de Brabandere
Traduzione di Anticorpi.info
Bruxelles - Ai bambini di una scuola elementare è stato chiesto di completare la seguente frase: "Il gatto ha ... zampe ed il corvo ...". Coscientemente, gli scolari hanno riempito gli spazi vuoti con i numeri quattro e due. O meglio, tutti gli scolari eccetto uno, che invece ha scritto: "Il gatto ha dolore alle zampe ed il corvo è triste."
La risposta fornita indica che quello scolaro sia in qualche modo meno intelligente di tutti gli altri? Ovviamente no. Di sicuro ha un'intelligenza diversa, più insolita della media. Non pensa allo stesso modo del resto dei propri compagni di classe, ma questo non significa che non la pensi altrettanto bene, o perfino meglio.
I cosiddetti 'test di intelligenza' offrono poche informazioni sulle reali capacità intellettuali. Equivalgono a voler valutare un'abitazione in base a ciò che si trova nel suo frigo. Si tratta di metodologie risalenti ad un'epoca in cui l'intelligenza era equiparata alle abilità logiche e matematiche di calcolare, classificare, estrapolare e dedurre. Di conseguenza le relative valutazioni sono ben lontane dal misurare la reale intelligenza, dal momento che essa è composta a propria volta dalla risultante dell'integrazione di numerosi tipi di intelligenza. L'intelligenza è come il gruppo sanguigno: nessuno è migliore degli altri, ma alcuni gruppi sono più diffusi. La questione del livello di intelligenza di un individuo è quindi meno importante del genere della sua intelligenza.
Fortunatamente dagli anni '80 e dall'emergere del lavoro di accademici come lo psicologo americano Howard Gardner, la pluralità delle intelligenze è stata riconosciuta, così come la necessità di combinarle per una valutazione più congrua. Addirittura oggi abbiamo diverse nuove teorie scientifiche che implicano il concetto della multiformità dell'intelligenza umana! Lo stesso Gardner ha aggiunto una nuova forma di intelligenza alle tipologie individuate al tempo della pubblicazione dei propri studi.
Oltre alle capacità deduttive, matematiche e logiche esistono - tra le altre - l'intelligenza musicale (sensibilità a suoni e ritmi), l'intelligenza fisica (la quale riesce a sfruttare al meglio il potenziale di tutte le parti anatomiche), intelligenza relazionale od emotiva (la capacità di identificare i sentimenti e le intenzioni del prossimo), l'intelligenza visiva (che ci consente di immaginare qualcosa da trasformare in realtà, e di spostare oggetti nello spazio) e l'intelligenza del linguaggio (la capacità di pensare con le parole).
Quasi nessuna di queste funzioni interconnesse può essere programmata in modo tale da essere eseguita da una macchina. Un computer può riconoscere un viso, ma non può trovarlo interessante. Un computer ha memoria, ma non può evocare ricordi. Può produrre immagini, ma non possiede la capacità di immaginare. Un computer può imparare dai propri errori, ma non può provare rimorso. Può confrontare le idee, ma non può generarne di spontanee ed originali.
Ciò che chiamiamo 'intelligenza' non è affatto un'abilità unica, ma piuttosto un insieme di abilità, innate ed acquisite, che agiscono sinergicamente e di volta in volta richiedono di prendere una decisione sul conoscere o l'ignorare, sull'essere emotivi o distaccati, sul formulare nuove domande e sul cercare nuove risposte. Tutte abilità inscindibili da sentimenti non sintetizzabili come la sorpresa, la curiosità, le intuizioni, l'allegria, la tristezza, le risate.
L'essenza dell'intelligenza risiede nella sua esclusività umana, e non è possibile replicarla all'interno di qualcosa di artificiale. Se l'intelligenza diventasse artificiale, il risultato sarebbe qualcosa di completamente diverso dall'intelligenza umana. Tuttavia il tema continua ad essere sollevato ancora e ancora dai media. Non appena un computer sconfigge un essere umano in qualche gioco di logica, riecco spuntare il mito dell'intelligenza artificiale.
I computer potranno sgravarci da molte faccende noiose, ma questo non significa che ci renderanno liberi. Potranno aiutarci a prevedere una situazione, ma non a desiderarla. Potranno aiutarci a trovare informazioni, ma non potranno ricreare l'alchimia della curiosità umana. Potranno analizzare come vanno le cose, ma non riusciranno a comprendere il significato filosofico di simili valutazioni.
* Luc de Brabandere è un matematico e consulente senior presso l'ufficio parigino del Boston Consulting Group.
-----------
"Un giorno le macchine riusciranno a risolvere tutti i problemi, ma nessuna di esse potrà mai esporne uno."
A. Einstein
"Le persone temono che i computer diventeranno troppo intelligenti e conquisteranno il mondo, ma il vero problema è che sono troppo stupidi, ed hanno già conquistato il mondo."
Pedro Domingos
"Il pensiero è una caratteristica umana. Un giorno l'IA penserà davvero? È come chiedere se i sottomarini nuotano. Se lo chiami nuoto, i robot penseranno, sì."
Noam Chomsky
"Il test di Turing è illuminante. Non si può sapere se una macchina è diventata più intelligente o se invece sei tu che hai inconsapevolmente abbassato i tuoi standard di intelligenza ad un livello tale per cui la macchina possa sembrare intelligente. Se puoi avere una conversazione con una persona simulata presentata da un programma di intelligenza artificiale, puoi dire fino a che punto hai ridotto il senso della tua personalità al fine di far funzionare l'illusione?Il Mito dell'Intelligenza Artificiale.
Le persone si degradano per far sembrare le macchine più intelligenti. Prima dell'incidente i banchieri credevano in algoritmi presumibilmente intelligenti in grado di calcolare i rischi di credito prima di concedere prestiti inesigibili. Chiediamo agli insegnanti di assegnare test standardizzati in modo tale che uno studente assomigli ad un algoritmo. Abbiamo ripetutamente dimostrato la nostra capacità senza fondo di ridurre i nostri standard per far apparire la tecnologia dell'informazione migliore di ciò che realmente è. Ogni istanza di intelligenza in una macchina è ambigua.
La stessa ambiguità che ha motivato dubbi progetti accademici di IA in passato è stata oggi riconfezionata sotto forma di cultura di massa. Mentre ci si aspetta che la prospettiva umana venga rivoluzionata dalla fusione con nuove e profonde tecnologie, l'esercizio di considerare vera l'intelligenza della macchina richiede alle persone di ridurre il proprio ormeggio alla realtà."
Brano tratto dal saggio You Are Not a Gadget, di Jaron Lanier
il pensiero di Jaron Lanier
di J. Brockman
Traduzione di Anticorpi.info
Molti di noi rimasero inorriditi alcuni anni fa quando la Corte Suprema americana decise improvvisamente di pronunciarsi su una questione che nessuno le aveva chiesto di giudicare, e dichiarò che le multinazionali siano persone. Si trattò di una manovra finalizzata a facilitare l'influenza politica dei grandi capitali. Ma c'è un altro punto di vista che non credo sia stato molto considerato: le società tecnologiche - che stanno diventando le più redditizie, quelle in più rapida ascesa, le più ricche, con il maggior denaro a disposizione - sono anch'esse persone per un motivo diverso. Perché sono - essenzialmente - degli algoritmi.
Se esamini aziende come Google o Amazon e molte altre simili, ti accorgi che forse fanno un minimo di produzione diretta di beni, ma l'unica ragione per cui lo fanno è quella di instaurare un canale di comunicazione tra persone ed algoritmi. Gli algoritmi sono alla base del funzionamento di queste grandi infrastrutture informatiche.
La distinzione tra una società ed un algoritmo sta svanendo. Può questo far si che un algoritmo sia considerato una persona? Abbiamo questa interessante confluenza tra due mondi completamente diversi. Abbiamo il mondo del denaro e della politica e la cosiddetta Corte Suprema conservatrice, e poi questo altro mondo che potremmo definire 'cultura dell'intelligenza artificiale', il quale è un movimento all'interno della cultura tecnologica che vorrebbe trovare un'equivalenza tra i computer e le persone. In entrambi i casi abbiamo una tradizione intellettuale che risale a molti decenni orsono. In precedenza i due mondi erano stati separati. Ora, improvvisamente si sono incrociati.
Il concetto secondo cui i computer sarebbero 'persone' ha una storia lunga e leggendaria. Risale alle origini stesse dei computer, ed anche oltre. Nell'aria è sempre fluttuata l'idea secondo cui un programma fosse qualcosa di vivo, alla luce delle relative facoltà di autonomia insite nella definizione stessa di 'programma.' Una prepotente sottocultura - la sottocultura più ricca, prolifica ed influente nel mondo tecnico - per molto tempo ha promosso l'idea che vi sia una qualche equivalenza tra algoritmi e vita, e tra specifici algoritmi e persone umane; un determinismo storico sottoculturale secondo cui staremmo per dare alla luce dei computer che saranno più intelligenti e migliori di noi, e che quindi ci sostituiranno.
Questa mitologia ha stimolato un perpetuo spasmo reazionario da parte di molta gente orripilata da simili prospettive. Qualcuno che dice I computer prenderanno il controllo della Terra, ma questa è una buona cosa, perché le persone hanno avuto la loro occasione ma l'hanno sprecata, ed adesso è tempo che lascino il campo alle macchine. Di rimando qualcun altro risponde: Oh, è orribile, dobbiamo fermare questi computer! Più di recente, alcune delle figure più amate e rispettate nel mondo della tecnologia e della scienza - tra cui Stephen Hawking e Elon Musk - hanno assunto una posizione che si può riassumere in questi termini: Oh mio Dio, queste cose sono una minaccia esistenziale! Devono essere fermate!
In passato molti personaggi di diversa estrazione hanno paventato simili eventi, ciascuno ricorrendo ad una diversa terminologia. Alcuni favorevoli all'idea che i computer prendano il sopravvento, altri no. Quello che mi piacerebbe fare qui oggi è suggerire che l'intero fondamento di questo 'dibattito', per quanto sia del tutto inconsistente, stia arrecando un danno reale alla società ed alle nostre capacità come ingegneri e scienziati.
Un buon punto di partenza potrebbe essere la recente iniezione di ansia da intelligenza artificiale, alimentata da alcune figure che stimo moltissimo, tra cui Stephen Hawking ed Elon Musk. Insomma, è difficile accogliere con indifferenza le parole di un rinomato e rispettato esperto mondiale che manifesta la propria preoccupazione circa le macchine che diventeranno intelligenti, prenderanno il sopravvento e ci distruggeranno. La mia sensazione è che tutto questo polverone sia una specie di modo non ottimale e sciocco per esprimere preoccupazione circa la direzione intrapresa dalla tecnologia in generale.
La più grande minaccia derivante dalla IA è probabilmente quella che scaturisce dal fatto che nella realtà dei fatti, l'IA comunemente intesa non esiste, perché l'idea stessa è una frode, o perlomeno un concetto così mal costruito da essere fasullo. In altre parole, se l'intelligenza artificiale fosse una cosa reale, probabilmente sarebbe meno pericolosa per noi di quanto lo sia il mito fasullo sorto intorno alle tecniche assimilate al concetto di intelligenza artificiale.
Cosa intendo dire? Che questo dibattito aggiunge uno strato di pensiero religioso a ciò che altrimenti dovrebbe essere un campo esclusivamente tecnico. Ora, se parliamo delle particolari sfide a cui i ricercatori sulla IA sono interessati, ci ritroviamo ad avere a che fare con concetti che suonano molto più banali, ma anche molto più plausibili.
Ad esempio, parliamo di classificazione dei modelli. Puoi ottenere programmi capaci di riconoscere i volti. Si tratta di un campo in cui sono stato attivo. Ero il capo scienziato della compagnia che Google ha rilevato qualche tempo fa. Ed adoro quella roba. È un campo meraviglioso ed è stato meravigliosamente utile.
Ma quando questi campi di ricerca tecnica vengono 'arricchiti' con implicazioni religiose che riecheggiano il mito di Frankenstein, secondo cui un giorno simili ricerche condurranno alla creazione di una vita artificiale, e che questa vita artificiale ci sarà superiore a dunque sarà pericolosa ... ebbene quando fai tutto questo, stai innescando molte conseguenze negative che minano la pratica ingegneristica, minano il metodo scientifico e minano l'economia ad esso correlata.
Il problema non risiede in queste particolari tecniche in via di sviluppo - che trovo affascinanti ed utili e che a mio avviso dovrebbero essere esplorate e sviluppate di più - ma nella mitologia distruttiva che le circonda. Citerò un paio di implicazioni pratiche negative scaturenti da questa mitologia.
La cosa più ovvia - ben chiara a chiunque operi in qualsiasi campo correlato - è che ogni tot di anni ritornano quelli che a volte sono stati definiti inverni dell'IA, in cui vengono a crearsi ampie aspettative irrealistiche su ciò che le IA sarebbero in grado di fare. Ad esempio ci si aspettava che nascesse una nuova categoria da veicoli completamente autonomi, piuttosto che i normali veicoli diventassero parzialmente autonomi; oppure ci si aspettava che l'IA potesse sostenere una conversazione libera e completa con l'essere umano, piuttosto che riuscire a sviluppare una capacità di conversazione limitata, ma capace di facilitare l'interfaccia con un dispositivo.
Questo tipo di aspettative irrealistiche conduce ad una forte delusione, e la cosa finisce per rispecchiarsi in una riduzione dei finanziamenti e nel fallimento di molte start-up, con conseguente disastrose per molte carriere, e tutto ciò accade periodicamente, ed è un peccato. Questo settore ha distrutto molte carriere. Ne ha anche lanciate molte in orbita, ma la cosa ha luogo con modalità casuali, a seconda se il tuo operato abbia luogo nella fase espansiva o in quella di contrazione. Si tratta di un approccio immaturo e ridicolo. E questa è una critica ampiamente condivisa. Non sto dicendo nulla di insolito.
Esaminiamo un altro livello di disfunzionalità. E questo ha a che fare con la semplice chiarezza dell'interfaccia utente, e quindi si trasforma in un effetto economico. Le persone sono creature sociali. Vogliamo essere piacevoli, vogliamo andare d'accordo. Tutti noi abbiamo imparato ad adattarci in modo da poter far parte del mondo. Se un programma ci dice: bene, la verità è questa; questo è ciò che sei; questo è quello che ti piace; questo è quello che dovresti fare, di solito abbiamo la tendenza ad assecondarlo.
Dato che la nostra economia si è spostata su ciò che definisco economia della sorveglianza - diciamo un'economia in cui gli algoritmi tendono molto ad indirizzare le persone - abbiamo questa situazione molto strana con algoritmi basati su grandi dati, i quali ci suggeriscono a chi chiedere l'amicizia, con chi dovremmo uscire ed andare a letto, che tipo di musica dovremmo ascoltare, quali libri dovremmo leggere, e ancora e ancora e ancora. E la gente spesso accetta simili indicazioni perché in realtà non esiste un'alternativa empirica per verificarle; non esiste una base di riferimento. Si tratta di cattiva scienza personale. Cattiva auto-comprensione.
Vi fornirò alcuni esempi di cosa intendo. Iniziamo con Netflix. Su Netflix non è che ci siano tantissimi contenuti. C'è una certa scarsità di contenuti. Se pensi a qualche film in particolare che potresti voler vedere, è probabile che non sia disponibile nel loro catalogo per lo streaming. Eppure c'è questo motore di raccomandazione che fornendo consigli ha l'effetto di servire da copertura per distrarti dal fatto che non ci sia molta roba disponibile. E la gente lo considera un sistema intelligente, anche perché in effetti molto di ciò che è disponibile va perfettamente bene.
Non sto incolpando Netflix di fare qualcosa di male, perché l'intero punto di Netflix è quello di elargirvi quotidianamente illusioni teatrali, e alla fine questo stratagemma non è che un ulteriore strato di quelle stesse illusioni. E' come un buon imbonitore. Non esiste un teatro senza un imbonitore per strada. Questo è, e va bene. Tuttavia a livello macro contribuisce a diffondere questa generale tendenza ad accettare che gli algoritmi siano in grado di fare molto più di ciò che in realtà possono fare. Nel caso di Netflix - ad esempio - il motore dei consigli serve a distrarti dal fatto che non ci sia molta scelta.
Ci sono altri casi in cui il motore dei consigli non svolge al meglio la propria funzione, perché magari la scelta è ricca, ma gli elementi raccomandati non sono appropriati. Il problema è che non avete modo di rendervi conto che quegli elementi non sono appropriati, perché non c'è modo di rapportarli ad una selezione alternativa, quindi non avete la minima idea di ciò che sarebbe dovuto essere il consiglio appropriato. Ho avuto la possibilità di lavorare su questo tipo di algoritmi, e sono interessanti ma anche molto, molto sopravvalutati.
Con ciò voglio arrivare a citare un problema ancora più profondo, ovvero che in questi sistemi non è possibile individuare il confine tra misurazione e manipolazione. Ad esempio, se la teoria è quella di individuare i consigli trattando grandi quantità di dati estrapolati dall'osservazione del comportamento di un sacco di persone che fanno delle scelte, la metodologia vale zero se la preponderanza di quelle persone è cresciuta nel sistema e dunque compie le proprie scelte sulla base degli indirizzamenti assorbiti precedentemente dal sistema.
In altre parole, l'unico modo per legittimare una simile metodologia sarebbe quello di avere un osservatorio capace di operare in un ambito non inquinato dai propri stessi consigli. Altrimenti la metodologia si trasforma semplicemente in una misurazione di quali manipolazioni funzionano e quali no. Questa è una cosa abbastanza chiara. Ciò che non è chiaro è dove si trovi il confine.
Se chiedi: un motore di raccomandazione come Amazon equivale più ad un dispositivo manipolativo oppure ad un legittimo dispositivo di misurazione? Non c'è modo di saperlo. A questo punto non c'è più modo di saperlo perché è troppo universale. La stessa cosa si può dire di qualsiasi altro sistema di big data che suggerisca comportamenti alle persone, che si tratti del business pubblicitario di Google, o dei social network come Facebook che decidono ciò che preferisci vedere, o una qualsiasi delle innumerevoli app di appuntamenti online. Non possiamo sapere dove finisce la misurazione e dove inizia la manipolazione.
Le app di appuntamenti hanno sempre un elemento di manipolazione; i consigli per lo shopping hanno sempre un elemento di manipolazione; in un certo senso, molte delle tecnologie che oggi la gente usa per orientarsi celano un lato manipolativo. Il che non è necessariamente una cosa terribile, o la fine del mondo. Tuttavia è importante comprendere bene il concetto, se questo tipo di tecniche stanno diventando la base dell'economia e dell'intera civiltà. Se le persone continueranno a decidere quali libri leggere sulla base di un motore dei consigli che non si riferisca ad una popolazione vergine - non 'consigliata' e non manipolata - allora l'intera faccenda andrà fuori controllo e perderà qualsiasi significato. Il che magari non comporterà un incremento del male nel mondo, ma di certo comporterà un incremento dell'assurdità nella società. Ad una sorta di incompetenza di massa, al contrario di Skynet dei film Terminator. Questo è uno dei reali danni potenziali producibili da questo tipo di IA.
Per andare ancora più a fondo nel problema, esaminiamolo da un punto di vista strettamente economico. Il punto di accesso più semplice per comprendere il legame esistente tra il modo religioso di approcciarsi all'intelligenza artificiale e l'economia reale, sono le tecniche di traduzione automatica del linguaggio. Se qualcuno me ne ha già sentito parlare mi scuso, ma continua ad essere l'esempio più comprensibile.
Per trent'anni il mondo dell'IA si è dato da fare per implementare un algoritmo ideale, piccolo, cristallino, capace di prendere i dizionari di due lingue, metterli in connessione e realizzare perfette traduzioni. Intellettualmente l'idea nacque negli anni '50 al MIT ed a Stanford. Non era una cattiva idea, teoricamente sembrava legittima, perfettamente ragionevole da testare. Tuttavia nel tempo questo approccio è fallito, in quanto quel tipo di connessione si dimostrò irrealizzabile.
Infine - negli anni '90 - i ricercatori della IBM e di altri paesi intuirono che il sistema migliore per realizzare qualcosa di analogo era sfruttando ciò che oggi definiamo 'big data'; che nel caso specifico consiste in un sistema di raccolta dati mediante cui archiviare un'enorme quantità di frasi pre-formulate, denominate corpus. In altre parole, se archivi un numero abbastanza elevato ed eterogeneo di frasi pre-formulate, puoi integrare esempi di traduzioni reali frase per frase con nuovi documenti da tradurre. Cerchi di comporre alla bell'e meglio e finisci per ottenere qualcosa che in effetti è leggibile. Non è perfetto, non è formalmente inappuntabile, non è necessariamente corretto, ma è utilizzabile. E sapete una cosa? È fantastico. Adoro l'idea che anziché trovare un traduttore e aspettare che mi faccia il lavoro, possa avere in mano qualcosa di approssimativo subito, perché spesso è tutto ciò che mi serve. Si tratta di un vantaggio per il mondo. Sono felice che sia stato fatto. È una grande cosa.
Tuttavia qui l'aspetto che dobbiamo notare è che - proprio a causa della mitologia dell'IA - questo servizio di traduzione viene percepito come mistico e magico. L'IBM ha fatto un dramma per aver creato queste entità a cui danno nomi diversi in momenti diversi: Deep Blue e via discorrendo. Le aziende tecnologiche di consumo tendono a metterci di fronte ad entità apparentemente magiche come Siri o Cortana. Il problema però è che questi non sono affatto servizi autonomi.
In altre parole, se torni ai dibattiti filosofici sull'IA di un tempo, si parlava di dispositivi indipendenti, capaci di fare qualcosa - ad esempio comprendere e tradurre il linguaggio - senza bisogno di essere continuamente imboccati.
Ma le cose non stanno affatto in quel modo. La realtà è che l'indipendenza è un'illusione; la realtà è che dietro le quinte di questi algoritmi apparentemente indipendenti, ci sono letteralmente milioni di traduttori umani che si impegnano giorno dopo giorno ad aggiungere nuove frasi pre-formulate. Questo perché non è possibile archiviare un unico corpus il quale possa andar bene per sempre. Per alimentare questo sistema è invece necessario aggiornare continuamente il corpus, dal momento che il mondo dei riferimenti, dell'attualità e dello slang cambia continuamente. E' quindi necessario appoggiarsi all'apporto di milioni di traduttori volontari che a loro insaputa, ogni giorno, rendono possibile il funzionamento di un servizio generalmente percepito come mistico e magico ed autonomo.
Il problema qui dovrebbe essere chiaro, ma lasciatemelo esporre più esplicitamente: nessuno sta retribuendo le persone che aggiornano il corpus di cui abbiamo bisogno per far funzionare gli algoritmi 'intelligenti' del servizio di traduzione. Per creare questa illusione che esista una creatura artificiale capace di leggere autonomamente le nostre frasi, pensarci su e poi tradurle - dobbiamo ignorare tutte le persone che inserendo i loro contributi rendono possibile la sua esistenza. Tutto ciò comporta delle conseguenze economiche negative.
E qui secondo me il discorso si fa serio. Un grosso problema. Se parli con i traduttori tradizionali, ti rendi conto di come la loro categoria professionale stia affrontando una situazione difficile, analoga a quella vissuta da molte categorie lavorative rese obsolete dall'avvento dell'era digitale. Per i traduttori in realtà esisterebbe l'opportunità di continuare ad esercitare la loro professione proprio nel mondo della traduzione in tempo reale ...
Quello che è successo qui è che i traduttori non sono stati resi obsoleti dall'IA. Esiste una struttura informatica attraverso cui vengono messi a frutto gli sforzi compiuti da persone reali per alimentare il sistema delle traduzioni artificiali, ma al di là di quella struttura, il lavoro di quelle persone resta indispensabile.
Questo modello di intelligenza artificiale funziona solo con l'ausilio di una branca di ciò che chiamiamo big data, tuttavia le persone che contribuiscono alla sua esistenza mediante il loro personale apporto a big data, non vengono pagate, tendenza del tutto insostenibile, in aumento nella nostra civiltà. Sempre più persone non vengono retribuite per i contributi che forniscono al mantenimento di big data. (...)
Insomma, se ci riferiamo all'IA come ad un insieme di tecniche, come ad un campo di studi matematici o ingegneristici, allora potremo ricavarne dei benefici. Se invece ci mettiamo a fantasticare del mito della creazione di una specie post-umana, questo approccio crea una serie di problemi che includono l'accettazione di algoritmi errati in cui non si può capire se si viene manipolati o no. Crea incompetenza, perché non sai se i consigli impartiti dall'intelligenza artificiale provengono da qualcosa di reale o solo da profezie auto-avveranti create da un sistema manipolativo auto-alimentato. Crea scompensi economici perché qualcuno sta traendo grandi profitti dallo sfruttamento di milioni di persone che contribuiscono gratuitamente ad aggiornare il sistema e la rete.
Per tutti questi motivi, il vero problema è la mitologia sorta intorno alla tecnica, non la tecnica stessa. (...)
C'è un fenomeno sociale ed ideologico che va avanti da qualche decennio: un nucleo di persone tecnicamente competenti e digitalizzate che rifiuta le religioni e le superstizioni tradizionali. Si sono proposti di elaborare un quadro migliore e più scientifico. Ma poi ricreano le versioni di quelle vecchie superstizioni religiose! Nel mondo tecnico queste superstizioni sono altrettanto confuse e altrettanto dannose delle precedenti, e lo fanno in modo del tutto simile.
A mio parere, la mitologia sorta intorno all'IA è un ritorno di alcune delle idee tradizionali circa la religione, applicate al mondo tecnico. Tutti i potenziali danni di questo approccio sono essenzialmente immagini speculari del danni che la religione ha causato in passato.
Anche qui abbiamo la profezia di una soglia, una fine di giorni. Questa soglia viene chiamata intelligenza artificiale, o un nuovo tipo di creatura che venendo alla luce acquisirebbe il potere supremo ed opprimerebbe le persone.
La nozione di questa soglia particolare, che a volte viene definita 'singolarità', o 'super-intelligenza', o ogni sorta di termine diverso a seconda del periodo, è qualcosa di molto simile ad una certa idea di divinità. Naturalmente non a tutte le idee circa la divinità, ma ad un certo tipo di idee superstiziose. Un'entità suprema che gestirà il mondo, alla quale forse potrai chiedere favori, verso la quale forse potrai dirigere le tue preghiere, che forse potrai influenzare, ma che governerà il mondo e tu dovresti sentirti in soggezione nei suoi confronti.
Si tratta di una particolare idea la quale si è sempre dimostrata disfunzionale nella storia umana. È disfunzionale ora, nel distorcere il nostro rapporto con la nostra tecnologia. Fu disfunzionale in passato esattamente allo stesso modo, distorcendo il nostro rapporto con Dio. Solo le parole sono cambiate.
Nella storia della religione organizzata è spesso accaduto che le persone siano state private di potere proprio con la motivazione di dover servire quelle che erano percepite come le necessità di una divinità, dove in realtà quello che stavano facendo era sostenere una classe d'elite che coincideva con il sacerdozio di quella divinità.
Tutto ciò mi sembra terribilmente simile alla nuova economia digitale, dove si hanno traduttori (in linguaggio naturale) e chiunque altro contribuisca al corpus che consente il funzionamento dei programmi di elaborazione dei dati, elogiato perché parte integrante del 'grande progetto' ma soprattutto perché lavora gratuitamente per coloro i quali gestiscono i servizi. La nuova élite potrebbe dire: "Bene, ma tutte queste persone stanno contribuendo all'intelligenza artificiale, mica lo stanno facendo per aiutare noialtri." A me questo ragionamento ricorda qualcuno che diceva: "Oh, costruite queste piramidi per rendere servizio a questa divinità", ma in realtà la gente lavorava per realizzare i progetti di un'élite. È un effetto economico della nuova idea. L'effetto della nuova idea religiosa dell'IA è molto simile all'effetto economico della vecchia idea, la religione.
C'è una qualità incredibilmente retrograda nella mitologia dell'IA. So di averlo già detto, ma devo ribadire che questa non è una critica verso specifici algoritmi.
Anche qui, si può tracciare un'analogia con i principi e le idee che la religione tradizionale è stata capace di alimentare. Bisogna solo imparare a discernere quale sia la parte giusta e naturale, e quale la parte strumentalizzabile e quindi controproducente. Stesso discorso vale per l'intelligenza artificiale.
Si tratta di un tema difficile da discutere, perché il vocabolario accettato ti mina ad ogni svolta. Ed anche qui si possono riscontrare similitudini con le religioni tradizionali. Se parlo di intelligenza artificiale, sto parlando del particolare lavoro tecnico o della mitologia che influenza il modo in cui ci è stata fatta percepire dalla nostra società? Bene, il vocabolario tipico non ci dà modo di differenziare le due cose. Ed ecco che tutto diventa molto confuso.
Se AI significa questa mitologia di una nuova creatura che staremmo creando, allora si tratta solo di uno stupido disordine che confonde tutti e nuoce al futuro dell'economia. Se ciò di cui stiamo parlando è un insieme di algoritmi che possiamo migliorare ed applicare in diversi modi pratici ed utili (ma pericolosi, perché abusabili - ed abusati - per fini politici - ndt), allora il discorso mi interessa e mi sento parte attiva della comunità che sta migliorando queste cose.
Sfortunatamente, il vocabolario standard non ci fornisce un buon modo di distinguere questi due elementi completamente opposti. Potrei provare a coniare alcune frasi, ma per il momento dirò solo che si tratta di due cose completamente diverse che meriterebbero di essere definite mediante terminologie completamente diverse. Ancora una volta, questo problema del vocabolario è antico ed è riscontrabile allo stesso modo nelle religioni tradizionali. Questo crea un ulteriore strato di potenziale confusione e differenziazione, un insieme di grandi equivoci da sottolineare continuamente, fino alla noia, perché farlo è diventato essenziale.
* Jaron Lanier è un informatico, compositore e saggista statunitense, noto per aver reso popolare la locuzione 'virtual reality' (realtà virtuale, di cui è peraltro considerato un pioniere).
Sintesi di due articoli in lingua inglese
Link diretti:
https://www.worldcrunch.com/opinion-analysis/why-artificial-intelligence-is-simply-impossible
https://www.edge.org/conversation/jaron_lanier-the-myth-of-ai
Traduzione a cura di Anticorpi.info
Nessun commento:
Posta un commento