venerdì 4 agosto 2017 - Oggiscienza

Intelligenza artificiale, il dialogo tra i robot di Facebook: chi ha paura di Alice e Bob?

Ovvero, come ottenere risultati sorprendenti e, talora, inquietanti, quando si chiede a due automi di dialogare tra loro. E quanto questi risultati siano una dimostrazione di un'effettiva capacità delle macchine di essere autoconsapevoli o pericolose per l'umanità.

da Gianpiero Negri

TECNOLOGIA – Abbiamo già parlato in questo articolo di conversazioni tra esseri umani e macchine. Che succede quando, invece, due intelligenze artificiali vengono istruite a conversare direttamente tra loro? Una recente notizia, riportata anche dal Sun e rimbalzata su varie riviste e quotidiani, è incentrata proprio su questo tema: che cosa capita quando due macchine, poste a dialogare tra di loro, rompono gli schemi e le regole dei loro stessi progettisti e inventano un proprio linguaggio?

Questo è esattamente ciò che si è verificato durante un esperimento condotto da alcuni ricercatori di Facebook a New York City, al punto da constringerli, secondo quanto riportato dal Sun, a interrompere l’attività. Andando più nel dettaglio, le due macchine coinvolte erano dei chatbot, ossia programmi che simulano una conversazione tra robot e essere umano. Ognuno di noi ha sperimentato l’interazione con questi agenti intelligenti, ad esempio nelle chat automatiche dei siti di vendita di oggetti o servizi.

In questo caso, i due automi sono stati messi a confronto per ottenere la migliore strategia di vendita di alcuni comuni oggetti: cappelli, palloni e libri. Inizialmente la conversazione si è svolta in inglese, fintanto che Alice e Bob – così si chiamano i chatbot, e in effetti si tratta di nomi spesso utilizzati in ambito AI, perchè simboleggiano la trasmissione/ricezione tra due enti A e B, che sono appunto le iniziali dei nomi – non hanno iniziato a privilegiare un linguaggio semplificato, con molte ripetizioni, bypassando di fatto l’utilizzo della lingua comprensibile agli esseri umani. E dando l’impressione di essere divenuti, in un certo qual modo, senzienti.

Questo evento, oltre a spaventare i ricercatori, che si sono appunto convinti a “staccare la spina” ai due automi, ha innescato vari dibattiti e polemiche. Molti studiosi e guru del settore, come Kevin Warvick di UK Robotics e lo stesso Elon Musk, hanno colto la palla al balzo per ribadire per l’ennesima volta quanto potenzialmente pericolosa possa rivelarsi l’intelligenza artificiale, e come questi specifici risultati non siano altro che segnali da monitorare con attenzione per evitare che in futuro si verifichi una vera e propria apocalisse.

Si tratta di timori fondati?

Cerchiamo di distinguere tra due questioni differenti, seppure correlate:

  • Può l’esito dell’esperimento di Facebook considerarsi un segnale del fatto che le macchine stiano per acquisire una forma di autoconsapevolezza, che le condurrà a prendere deliberatamente decisioni in accordo con una propria, specifica volontà, indipendente da quella dei suoi creatori umani?
  • Indipendentemente dal fatto che sviluppi o meno una sua coscienza, può l’intelligenza artificiale diventare imprevedibile al punto da innescare una catena di eventi che provochino una catastrofe globale?

Si tratta di due domande piuttosto complesse, a cui proviamo a dare una risposta.

Per quel che riguarda la prima delle due, la risposta è, con ogni probabilità, un deciso no: se i chatbot hanno intrapreso una strada che li ha fatti deviare dall’utilizzo di una specifica lingua, ciò dipende con buona confidenza dal fatto che non esisteva, nel loro programma, alcun vincolo specifico che le forzasse ad attenersi all’utilizzo di frasi di senso compiuto in quella lingua.

Paragonando questo esperimento a un fenomeno fisico che avviene in accordo con una certa legge, ad esempio la caduta di un corpo dotato di massa sotto l’effetto della gravità, naturalmente se il corpo stesso viene lasciato libero di cadere senza vincoli, o con vincoli labili, probabilmente andrà giù su un traiettoria quanto più semplice possibile, come una linea retta verticale. Se invece l’evoluzione del processo è guidata, utilizzando nel caso del grave delle guide o dei vincoli che ne forzino la traiettoria, ovviamente il moto sarà condizionato a seguire uno specifico percorso nello spazio. Restando a questo semplice e grossolano esempio, è come se i due chatbot avessero intrapreso una sorta di caduta libera.

Nulla, comunque, che non sia giustificabile senza uscire dalle specifiche del programma eseguito da Alice e Bob, e che imponga di evocare lo spettro dell’emersione di una forma di coscienza o di autoconsapevolezza nei due chatbot.

In quest’ottica, il titolo dell’articolo sul Sun può risultare fuorviante: il fatto che gli automi rispondano a frasi o domande prive di senso per un essere umano non vuole affatto dire che quelle frasi abbiano realmente un senso, nell’accezione umana, per le macchine stesse.

La seconda questione è stata già affrontata in questo articolo: in sostanza, quanto l’intelligenza artificiale diventerà effettivamente pericolosa dipenderà in modo fondamentale dalla misura in cui ad essa saranno delegate delle scelte che possano condurre ad eventi catastrofici, e che non richiedano alcuna conferma finale da parte di uno o più operatori umani.

In quest’ottica, non è affatto necessario che un automa divenga cosciente o malefico e si voglia liberare, in perfetto stile Terminator, del suo ingombrante creatore: basterebbe un non ben previsto o mal gestito malfunzionamento di un sistema automatico, a cui in maniera del tutto improvvida gli esseri umani abbiano dato l’assenso a prendere una decisione definitiva.

Ancora una volta, quindi, noi umani dobbiamo considerarci avvertiti: per quanto lo scaricabarile sugli Alice e Bob di turno possa sembrare comodo, la responsabilità finale della sicurezza, conservazione e prosperità dell’umanità resta saldamente nelle nostre stesse mani.



1 réactions


  • pv21 (---.---.---.168) 6 agosto 2017 19:52

    Quesito >

    Prima di “staccare la spina” i ricercatori di Facebook hanno capito cosa Alice e Bob si sono detti e a quali fini?

    Oppure hanno solo preso atto che era un linguaggio per noi incomprensibile?

    Una volta chiarito questo si può valutare se è il caso di dare spazio a delle elucubrazioni …


Lasciare un commento