Facebook sta insegnando ai robot a camminare

Facebook continua ad espandere le sue aree di ricerche, fino ad arrivare alla robotica, in particolare insegnando alle macchine ad apprendere.
Facebook sta insegnando ai robot a camminare
Facebook continua ad espandere le sue aree di ricerche, fino ad arrivare alla robotica, in particolare insegnando alle macchine ad apprendere.

Facebook ormai non è solo un social network, ma un colosso globale che si concentra anche nella ricerca. Ad esempio sull’intelligenza artificiale e machine learning, per scovare sempre nuovi sistemi per individuare contenuti potenzialmente pericolosi sulla piattaforma. Dopo l’annuncio a inizio mese in merito ai metodi di apprendimento e computer vision, Facebook ha condiviso maggiori dettagli su alcune aree di ricerca che potrebbero portare a una IA più “curiosa”.

Un’area molto interessante riguarda l'”apprendimento auto-supervisionato”, in cui i sistemi imparano direttamente dai dati grezzi, in modo da adattarsi a nuovi compiti e circostanze. Ecco cosa ha scritto un team di ricercatori di FAIR (Facebook AI Research) sul blog ufficiale:

Nel reparto robotica robotica stiamo portando avanti tecniche come il model-based reinforcement learning (RL), per consentire ai robot di ‘insegnare a sé stessi’ attraverso prove ed errori, utilizzando l’input diretto dai sensori.

Nello specifico il team ha cercato di portare un robot con sei “gambe” ad imparare a camminare senza nessun tipo di assistenza dall’esterno. Il team è stato in grado di progettare algoritmi per l’intelligenza artificiale e testarli realmente su un problema davvero difficile, cioè la locomozione, che altrimenti sarebbe difficile da risolvere in altri modi. L’obiettivo finale è quello di ridurre le interazioni di cui il robot ha bisogno per imparare a camminare, per impiegare ore al posto di giorni o settimane per apprendere.

Facebook ha ampliato i suoi sforzi di ricerca sui robot nei laboratori di Pittsburgh, a New York, ma anche nella sua sede centrale a Menlo Park, in California, già dallo scorso anno. La combinazione di input visivi e tattili potrebbe migliorare notevolmente la funzionalità delle piattaforme robotiche future e migliorare le tecniche di apprendimento.

Ti consigliamo anche

Link copiato negli appunti