Microsoft sospende l'intelligenza artificiale Tay, era diventata maleducata
Microsoft ha richiamato in laboratorio il suo programma chatbot Tay dopo averlo testato 24 ore online. Il software era stato progettato per dialogare con i giovani americani di età compresa tra i 18 e i 24 anni, i cosiddetti "millennial", tramite i social network. In particolar modo tramite il canale TayandYou su Twitter.
Durante le chat, il programma doveva imparare e apprendere il linguaggio giovanile direttamente dagli utenti. Un apprendimento automatico che avrebbe affinato le tecniche di intelligenza artificiale della casa di Redmond e realizzato un software dialogante quasi umano.
In realtà, le cose non sono però andate proprio così. Il chatbot stava imparando fin troppo bene il gergo giovanile. Al punto da fare sue diverse affermazione di carattere sessista, xenofobo e razzista. Insomma... era diventato un maleducato artificiale.
L'esperimento socioculturale online è stato temporaneamente sospeso e il chatbot è stato messo "in punizione". O per meglio dire... i suoi sviluppatori avranno un bel po' da fare per migliorare la situazione.
Perché l'esperimento è fallito?
Sulle cause se ne sa poco ma, da quello che ho capito, l'algoritmo era stato progettato per copiare le frasi degli utenti e riutilizzarle in un'altra conversazione, nel giusto contesto. Una sorta di copia e incolla avanzato dei messaggi scambiati con gli utenti.
Il risultato non è stato però quello sperato da Microsoft. Il chatbot ripeteva qualsiasi cosa, prendendo per buona ogni affermazione, e gli utenti ne hanno subito approfittato per insegnarli le cattive maniere. Un po' come si fa ai pappagalli... quando si cerca di insegnare loro le parolacce.
Esempio. Dopo poche ore il chatbot affermava di essere favorevole alla costruzione del muro sul confine messicano a spese del Messico... per fermare l'immigrazione clandestina negli USA. E' uno degli slogan politici di Donal Trump. Di questo ne parla anche l'agenzia italiana Ansa.
A mio giudizio è l'approccio a essere sbagliato. Non si può costruire una intelligenza artificiale soltanto copiando le frasi altrui tramite una tecnica di associazione frase-contesto. E' un approccio già provato in passato e con scarsi risultati. Il meglio che si può ottenere è un software non intelligente che simula l'intelligenza.
E' invece necessario lavorare sull'interpretazione del significato dei messaggi e dare al SW una capacità di giudizio sulle affermazioni per capire il loro grado di verità ( fuzzy logic ).
I mezzi per farlo già ci sono. Non è fantascienza. Basti pensare che di recente è stato persino trovato un modo per far capire il sarcasmo ai software AI ( Artificial Intelligence ). O perlomeno, ci si sta provando...
Perché gli esperimenti con i chatbot sono presi così seriamente?
Non è più soltanto un gioco accademico o una sperimentazione finalizzata a se stessa. Lo sviluppo di un chatbot è ormai una questione di business da nove zeri.
Gli assistenti virtuali come Cortana o Siri sono una realtà sugli smartphone di fascia medio-bassa, già da diversi anni, e hanno trovato il favore del pubblico. Sono applicazioni utili ma sanno rispondere soltanto a domande dirette, come un motore di ricerca semantico avanzato.
In prospettiva, le applicazioni migliori dei chatbot intelligenti arriveranno quando gli assistenti virtuali intelligenti riusciranno a intrattenere la persona con una conversazione reale, capire il contesto, seguire il significato delle frasi e il senso del discorso.
Si avrà così un'app intelligente con la quale scambiare quattro chiacchiere. Può sembrare strano... ma sarebbero in molti a comprarla.
Un'altra applicazione commerciale a cui si guarda con attenzione, anche se un po' più in là nel tempo, sono i robot sociali ( social robot ).
Questi nuovi dispositivi della robotica domestica utilizzeranno un'interfaccia in linguaggio naturale per comunicare con l'utente. E' quindi necessario che imparino a interpretare bene i messaggi reali delle persone.
25 / 03 / 2016