/https://www.webnews.it/app/uploads/2016/03/tay-microsoft.jpg)
Microsoft sta tentando di realizzare un’intelligenza artificiale che possa comportarsi come un adolescente migliorando costantemente il suo apprendimento. Il settore di ricerca e sviluppo della casa di Redmond ha, infatti, ha lanciato un nuovo chatbot chiamato Tay il cui scopo è quello di migliorare la comprensione verbale delle discussioni ed imparare ad utilizzare un linguaggio maggiormente naturale.
Tay è disponibile su diverse piattaforme come
Tecnicamente, Tay dovrebbe migliorare il linguaggio con il tempo grazie alle continue interazioni con gli utenti. Dunque, più l’intelligenza artificiale potrà dialogare con persone reali e più il suo linguaggio diventerà preciso e colloquiale.
Al di la delle semplici chat,
Lo sviluppo di Tay non ha un fine ben preciso, cioè non è previsto che questo chatbot sia inserito in alcun servizio di Microsoft. Lo sviluppo di questa intelligenza artificiale deve, piuttosto, essere visto con un progetto che punta a migliorare servizi come gli assistenti virtuali che per quanto evoluti ancora non riescono a dialogare davvero naturalmente con gli utenti. Microsoft, del resto, punta molto in questo settore con Cortana che oggi è integrato sia sui PC Windows 10 che nei suoi dispositivi mobile.
Imparando come davvero le persone si esprimono, Microsoft potrebbe davvero sviluppare un’assistente virtuale in grado di dialogare naturalmente con gli utenti fornendo risposte precise e chiare, soddisfacendo, così, le richieste delle persone.
Update:
Tay è stato messo offline a nemmeno 24 ore dal suo debutto. Il motivo è da ricercarsi nel fatto che l’intelligenza artificiale ha iniziato ad inviare messaggi contenenti frasi razziste. In realtà il progetto di Microsoft è stato un successo ma non nel senso sperato. Tay, infatti, ha perfettamente imparato a colloquiare con gli utenti su Twitter, peccato, però, che molti fossero dei troll il cui unico scopo era quello di costringere Tay ad utilizzare frasi sconvenienti. Tay ha, dunque, imparato solo un linguaggio scurrile e proprio per questo Microsoft ha deciso di spegnerlo in attesa di aggiornarlo e rimetterlo online "ripulito".
[embed_twitter]https://twitter.com/geraldmellor/status/712880710328139776[/embed_twitter]
La colpa sarebbe del gruppo 4chan che intenzionalmente avrebbe sabotato il progetto di Microsoft. La casa di Redmond, riferendosi indirettamente al gruppo 4chan, ha infatti sottolineato che Tay ha subito
uno sforzo coordinato fatto da alcuni utenti per abusare delle sue capacità di risposta.
Microsoft non ha fatto sapere, però, quando Tay potrà tornare "ripulito" nuovamente online.
Update 30/03/2016:
Tay è tornato online anche se non con qualche difficoltà tecnica.