Facebook sta insegnando ai robot a camminare

Facebook continua ad espandere le sue aree di ricerche, fino ad arrivare alla robotica, in particolare insegnando alle macchine ad apprendere.
Facebook continua ad espandere le sue aree di ricerche, fino ad arrivare alla robotica, in particolare insegnando alle macchine ad apprendere.
Facebook sta insegnando ai robot a camminare

Facebook ormai non è solo un social network, ma un colosso globale che si concentra anche nella ricerca. Ad esempio sull’intelligenza artificiale e machine learning, per scovare sempre nuovi sistemi per individuare contenuti potenzialmente pericolosi sulla piattaforma. Dopo l’annuncio a inizio mese in merito ai metodi di apprendimento e computer vision, Facebook ha condiviso maggiori dettagli su alcune aree di ricerca che potrebbero portare a una IA più “curiosa”.

Un’area molto interessante riguarda l'”apprendimento auto-supervisionato”, in cui i sistemi imparano direttamente dai dati grezzi, in modo da adattarsi a nuovi compiti e circostanze. Ecco cosa ha scritto un team di ricercatori di FAIR (Facebook AI Research) sul blog ufficiale:

Nel reparto robotica robotica stiamo portando avanti tecniche come il model-based reinforcement learning (RL), per consentire ai robot di ‘insegnare a sé stessi’ attraverso prove ed errori, utilizzando l’input diretto dai sensori.

Nello specifico il team ha cercato di portare un robot con sei “gambe” ad imparare a camminare senza nessun tipo di assistenza dall’esterno. Il team è stato in grado di progettare algoritmi per l’intelligenza artificiale e testarli realmente su un problema davvero difficile, cioè la locomozione, che altrimenti sarebbe difficile da risolvere in altri modi. L’obiettivo finale è quello di ridurre le interazioni di cui il robot ha bisogno per imparare a camminare, per impiegare ore al posto di giorni o settimane per apprendere.

Facebook ha ampliato i suoi sforzi di ricerca sui robot nei laboratori di Pittsburgh, a New York, ma anche nella sua sede centrale a Menlo Park, in California, già dallo scorso anno. La combinazione di input visivi e tattili potrebbe migliorare notevolmente la funzionalità delle piattaforme robotiche future e migliorare le tecniche di apprendimento.

Ti consigliamo anche

Link copiato negli appunti