211service.com
Un gatto robot emotivo
Scienziati olandesi stanno dotando un gatto robotico di una serie di regole logiche per le emozioni. Credono che introducendo variabili emotive nel processo decisionale, dovrebbero essere in grado di creare interazioni umane e computer più naturali.

Gattino emotivo: Una piattaforma hardware robotica chiamata iCAT viene utilizzata per valutare una serie di regole logiche per gli stati emotivi computazionali. L'obiettivo è comunicare lo stato emotivo del robot quando svolge compiti complessi in modo che prenda decisioni in modo più efficiente.
Non crediamo davvero che i computer possano avere emozioni, ma vediamo che le emozioni hanno una certa funzione nel ragionamento pratico umano, dice Mehdi Dastani , un ricercatore di intelligenza artificiale presso l'Università di Utrecht, nei Paesi Bassi. Concedendo agenti intelligenti con emozioni simili, i ricercatori sperano che i robot possano quindi emulare questo ragionamento simile a quello umano, dice.
L'hardware per il robot, chiamato invenzione , è stato sviluppato dalla società di ricerca olandese Philips e progettato per essere una piattaforma robotica di accompagnamento generica. Consentendo al robot di formare espressioni facciali usando le sopracciglia, le palpebre, la bocca e la posizione della testa, i ricercatori mirano a mostrare se è confuso, ad esempio, quando interagisce con il suo utente umano. L'obiettivo a lungo termine è utilizzare il software di logica emotiva di Dastani per assistere nell'interazione tra uomo e robot, ma per ora i ricercatori intendono utilizzare l'iCAT per visualizzare gli stati emotivi interni mentre prende decisioni.
Oltre a migliorare le interazioni, questa logica emotiva dovrebbe anche aiutare gli agenti intelligenti a svolgere compiti non interattivi. Ad esempio, dovrebbe aiutare a ridurre il carico di lavoro computazionale durante i complessi processi decisionali utilizzati nello svolgimento delle attività di pianificazione.
Sviluppate con John-Jules Meyer e Bas Steunebrink, sempre a Utrecht, le funzioni logiche consistono in una serie di regole per definire un insieme di 22 emozioni, come rabbia, speranza, gratificazione, paura e gioia. Ma piuttosto che basarsi su nozioni di sentimenti, questi sono definiti in termini di un obiettivo che il robot deve raggiungere e del piano con cui il robot mira a raggiungerlo.
Quando i robot in genere tentano di svolgere un compito, come la navigazione, di solito ci sono due approcci che possono adottare: possono calcolare in anticipo un piano prestabilito, basato su un punto di partenza e sulla posizione dell'obiettivo, e quindi eseguirlo, oppure possono continuamente riprogrammare il loro percorso mentre procedono. Il primo metodo è abbastanza primitivo e spesso può portare alla scena familiare di un robot che si schianta contro un ostacolo imprevisto, incapace di aggirarlo. Quest'ultimo approccio è più robusto, in particolare quando si naviga in ambienti imprevedibili e complessi. Ma questo metodo è solitamente molto impegnativo dal punto di vista computazionale perché richiede che il robot cerchi continuamente il percorso migliore da un vasto numero di percorsi possibili.
La logica emotiva può aiutare a ottenere il meglio da entrambi i mondi richiedendo al robot di riprogrammare il suo percorso solo quando i suoi stati emotivi lo impongono. Ad esempio, in questo tipo di compito di navigazione, la speranza sarebbe definita in termini di sistema che crede (basato su dati sensoriali) che eseguendo il Piano A per raggiungere l'Obiettivo B, l'Obiettivo B sarà raggiunto. Al contrario, la paura si verifica quando il sistema spera di raggiungere l'obiettivo B tramite il piano A, ma ritiene che l'obiettivo B non sarà raggiunto dopo aver eseguito il piano A. Utilizzando questo tipo di definizione, la paura può aiutare il robot a riconoscere quando è il momento di provare un nuova virata. Questo cambia le sue convinzioni perché il resto del piano non renderà il suo obiettivo raggiungibile, afferma Dastani.
In sostanza, attribuendo le emozioni allo stato attuale di un agente, è possibile monitorare il comportamento del sistema in modo che il processo decisionale o di pianificazione venga effettuato solo quando strettamente necessario. È un'euristica che può aiutare a rendere i processi decisionali razionali più realistici e molto più calcolabili, afferma Dastani. Il punto è che qui controlliamo continuamente se c'è una possibilità di fallimento.
Altri robot sono stati progettati per imitare le espressioni umane. Ma l'attenzione di Dastani su come le emozioni potrebbero influenzare la decisione lo rende diverso da molti altri progetti sull'informatica emozionale o affettiva, come il robot Kismet del MIT, sviluppato da Cynthia Breazeal . Con Kismet, come altri robot affettivi, il focus è su come far esprimere al robot le emozioni e suscitarle dalle persone.
Le funzioni emotive di Dastani sono state derivate da un modello psicologico noto come modello OCC, ideato nel 1988 da un trio di psicologi: Andrea Ortony e Allan Collins , della Northwestern University, e Gerald Clore , dell'Università della Virginia. Diversi psicologi hanno escogitato diverse serie di emozioni, afferma Dastani. Ma il suo gruppo ha deciso di utilizzare questo particolare modello perché specificava le emozioni in termini di oggetti, azioni ed eventi.
In effetti, uno dei motivi per creare questo modello è stato quello di incoraggiare tale lavoro, afferma Ortony. È molto gratificante per noi che le persone utilizzino il modello in questo modo, afferma. La maggior parte delle volte quando le persone parlano di informatica emozionale o affettiva, è a livello di interazione umana, ma c'è molto lavoro da fare guardando come le emozioni influenzano il processo decisionale, dice.
Interrompe molti dibattiti filosofici sulla natura delle emozioni umane e, in effetti, del pensiero umano, afferma Blay Whitby , un filosofo specializzato in intelligenza artificiale presso l'Università del Sussex, nel Regno Unito. Questa non è una brutta cosa, dice, ma molti filosofi probabilmente vedrebbero la nozione di logica emotiva come un ossimoro, dice.
Avere 22 diverse emozioni costituisce un modello molto ricco delle emozioni umane, anche rispetto ad alcune teorie psichiatriche, afferma Whitby. Ma dovrà essere in grado di risolvere i conflitti tra i diversi stati emotivi e deve essere praticamente messo alla prova, dice. Il diavolo è nei dettagli con questo tipo di lavoro e in particolare non considerano le interazioni multiagente.
Dastani afferma che incorporare interazioni multiagente, quelle che coinvolgono più robot o robot e umani, è nella sua lista di cose da fare. Nota che è solo allora che è probabile che gli utenti finali vedano i vantaggi di questa logica emotiva, sotto forma di interazioni robotiche più naturali o attraverso le risposte di agenti intelligenti nei call center automatizzati. Prima che ciò accada, è più probabile che questi stati emotivi funzionino dietro le quinte in attività più banali come la navigazione e le attività di pianificazione, afferma Dastani, ma è ancora troppo presto per prevedere quando tale sistema sarà disponibile in commercio.