I robot possono eseguire innumerevoli azioni, ma anche il robot più sofisticato non è in grado di gestire le interazioni sociali di base che sono fondamentali per la vita quotidiana degli esseri umani.
I ricercatori del Mit hanno ora incorporato alcune interazioni sociali in un framework per la robotica, per consentire alle macchine di comprendere cosa significa aiutarsi o ostacolarsi a vicenda, e di imparare a riprodurre questi comportamenti sociali in modo autonomo.
In un ambiente simulato – ha spiegato il Mit –, un robot guarda il suo compagno, indovina quale task vuole realizzare e poi aiuta o ostacola questo altro robot in base ai propri obiettivi.
I ricercatori del Mit hanno anche dimostrato che il loro modello crea interazioni sociali realistiche e prevedibili.
Quando hanno mostrato a persone dei video di questi robot simulati che interagivano tra loro, gli spettatori umani erano per lo più d’accordo con il modello sul tipo di comportamento sociale che si stava verificando.
Permettere ai robot di esibire abilità sociali – ha messo in evidenza il Mit – potrebbe portare a interazioni essere umano-robot più fluide e positive.
Il Mit fa l’esempio di un robot in una casa di riposo che potrebbe usare queste capacità per aiutare a creare un ambiente più premuroso per gli anziani.
Il nuovo modello potrebbe anche permettere agli scienziati di misurare quantitativamente le interazioni sociali, il che potrebbe aiutare gli psicologi a studiare l’autismo o ad analizzare gli effetti degli antidepressivi.
Gli autori del paper sono Boris Katz – principal research scientist e capo dell’InfoLab Group nel Computer Science and Artificial Intelligence Laboratory (CSAIL) del Mit e membro del Center for Brains, Minds, and Machines (CBMM) –, Ravi Tejwani, Yen-Ling Kuo, Tianmin Shu e Andrei Barbu.
Nel loro studio, i ricercatori del Mit usano il loro modello per specificare quali sono gli obiettivi fisici di un robot, quali sono i suoi obiettivi sociali e quanta enfasi il robot dovrebbe porre su uno rispetto all’altro. Il robot viene premiato per le azioni che compie e che lo avvicinano al raggiungimento dei suoi obiettivi.
I ricercatori hanno usato questo framework matematico per definire tre tipi di robot: uno di livello 0 che ha solo obiettivi fisici e non può ragionare socialmente; uno di livello 1 che ha obiettivi fisici e sociali, ma presume che tutti gli altri robot abbiano solo obiettivi fisici; e uno di livello 2 che presume che gli altri robot abbiano obiettivi sociali e fisici. Questi ultimi possono compiere azioni più sofisticate come aiutarsi a vicenda.
Per confrontare il loro modello con le prospettive umane sulle interazioni sociali, i ricercatori hanno creato 98 diversi scenari con robot dei livelli 0, 1 e 2. Dodici umani hanno guardato 196 video clip dei robot che interagivano, e poi è stato chiesto loro di stimare gli obiettivi fisici e sociali di quei robot.
Nella maggior parte dei casi, il modello era d’accordo con ciò che gli esseri umani pensavano delle interazioni sociali che si stavano verificando in ogni fotogramma.
I ricercatori stanno ora lavorando allo sviluppo di un sistema con agenti 3D in un ambiente che permetta molti più tipi di interazioni, come la manipolazione di oggetti domestici. Stanno anche progettando di modificare il loro modello per includere ambienti in cui le azioni possono fallire.
Nelle intenzioni c’è poi quella di incorporare nel modello un robot planner basato su reti neurali, che impara dall’esperienza e si comporta più velocemente.
Infine, i ricercatori sperano di eseguire un esperimento per raccogliere dati sulle caratteristiche che gli esseri umani usano per determinare se due robot sono impegnati in un’interazione sociale.