Verso Agenti di Interfaccia Dotati di Personalita'
 
 

Paola Rizzo
 
 

Istituto di Psicologia del CNR (IP-CNR)

Viale Marx 15

00137 Roma

paola@pscs2.irmkant.rm.cnr.it
 
 

Sommario

La personalita' e' una delle caratteristiche piu' importanti di un particolare tipo di agenti di interfaccia: i cosiddetti agenti believable. Il lavoro mostra alcuni agenti che interagiscono con un utente in modi tipici delle loro personalita', prendendo ad esempio il comportamento di aiuto. Sono illustrate le interazioni fra un utente e due agenti dotati di diverse "personalita' di aiuto": l'Altruista e il Dispettoso. Le personalita' sono descritte in termini di scopi con elevata priorita' e di preferenze su azioni e piani. L'implementazione si basa su un'architettura che integra tecniche di pianificazione generativa e reattiva, e che realizza automaticamente i comportamenti tipici delle varie personalita'.

1. Introduzione. Un'importante evoluzione dell'interazione uomo-macchina riguarda lo spostamento verso interfacce fortemente personalizzate, nelle quali la comunicazione fra utente e computer e' mediata da agenti believable (credibili, verosimili). Si tratta di sistemi software (noti anche come "lifelike computer characters", "virtual actors", "synthetic characters", ecc.) realizzati allo scopo di provocare in coloro che interagiscono con essi l'attribuzione di caratteristiche umane, quali desideri, credenze, emozioni, atteggiamenti [3,8,11]. Gli agenti believable possono consistere in figure animate che appaiono e si comportano come esseri umani, oppure in entita' che vivono in ambienti virtuali e possono comunicare mediante forme di linguaggio naturale, o ancora in robot capaci di interagire con gli esseri umani in modi originali.

Un forte argomento a favore dell'uso di agenti believable nelle interfacce e' il fatto che essi rendono l'interazione uomo-computer piu' piacevole e naturale, e consentono stili comunicativi comuni nel dialogo uomo-uomo [9]. Inoltre, grazie ai progressi nella computer graphics, la realizzazione di interfacce dotate di agenti visivamente interessanti basata su video reali, disegni in stile da cartone animato, o grafica tridimensionale, e' divenuta piu' facile. In ambienti virtuali, agenti "animati" possono aiutare gli utenti a imparare a svolgere compiti procedurali dimostrandone la loro esecuzione [15]; in ambienti multimediali, essi possono fungere da guida per sollevare l'utente da problemi di orientamento e navigazione comuni nelle applicazioni multi-finestra/multi-schermo [1]. Infine, e' importante la funzione ludica ed emotiva di tali agenti. Essa puo' contribuire a rendere piu' facile l'uso del calcolatore da parte di utenti principianti, e quindi a rendere gli agenti believable validi aiuti educativi, in quanto capaci di coinvolgere gli studenti senza distrarli o distoglierli dall'apprendimento [10].

2. La personalita' negli agenti believable. Dalla letteratura pertinente (ad es. [20]) emerge che una delle caratteristiche piu' importanti che gli agenti believable devono possedere e' una spiccata personalita'. Esistono vari approcci per realizzare le personalita' degli agenti: per esempio come schemi di coppie attributo-valore diverse per ciascun agente [19], o come insiemi di caratteristiche che influenzano i comportamenti sociali [14]; data l'importanza attribuita alle emozioni per gli agenti believable, le personalita' sono spesso costruite anche variando la relazione fra scopi, emozioni, e reazioni [2, 5].

In tali approcci, l'attenzione e' perlopiu' focalizzata sui dettagli dei comportamenti manifesti degli agenti, ma in questo modo le loro motivazioni generali sottostanti rischiano di essere trascurate; cio deriva da uno scarso tentativo di definire le personalita' a un livello piu' astratto. Questo lavoro prova a realizzare tale tentativo, e considera gli scopi generali e le preferenze come elementi di base dei tipi di personalita'. Da un punto di vista psicologico infatti, la personalita' puo' essere considerata uno schema di interazioni con l'ambiente e di comportamenti che si manifestano in modo coerente attraverso vari contesti; tale schema sarebbe causato dal perseguimento di alcuni scopi stabili aventi priorita' diverse, e dalla scelta di particolari azioni per raggiungere gli scopi (es. [13]). Per questa ragione, nel nostro lavoro gli scopi tipici e le preferenze su azioni e i piani hanno un ruolo preponderante nel caratterizzare le personalita'.

Ispirandoci a un lavoro AI [4] che ha proposto di modellare la personalita' umana usando alberi di scopi, e un lavoro psicologico [7] che ha fornito una tassonomia di scopi umani di base, assumiamo che la personalita' di un agente possa essere definita come (1) un insieme di scopi con priorita' differenti, e (2) un insieme di preferenze su azioni e piani basate su scopi. Le preferenze per ciascuna personalita' riguardano le relazioni fra gli scopi ad alta priorita' e gli effetti collaterali delle azioni e i piani, e possono essere calcolate automaticamente da un adeguato algoritmo di pianificazione. Questo modello e' descritto in maggior dettaglio e confrontato con altri approcci in [16,17,18]

Il lavoro vuole mostrare come un particolare insieme di personalita', quelle che influenzano il comportamento di aiuto, puo' essere definito in termini di scopi e preferenze, e come queste ultime sono elaborate da un'architettura IA di pianificazione per produrre automaticamente comportamenti interattivi che sono caratteristici di ciascuna personalita'.

3. "Personalita' di aiuto" basate su scopi. Al fine di istanziare il modello di personalita' sopradescritto, si e' scelto come esempio il comportamento di aiuto. Analogamente a un lavoro sulla ricerca di aiuto in cui sono state descritte alcuni tipi di "agenti che chiedono aiuto" [12], e' possibile individuare diverse "personalita' di aiuto", che influenzano in modi caratteristici le modalita', le condizioni, e le probabilita' del dare aiuto.

Il lavoro e' concentrato sul confronto fra la personalita' altruistica e quella dispettosa. Nel seguito, queste personalita' vengono brevemente caratterizzate: per ciascuna di esse sono indicati alcuni degli scopi tipici con alta priorita'. Uno scopo piu' importante e' preceduto da un "+" e uno meno importante da un "-"; ciascuno di essi rappresenta una classe di scopi a livello astratto e decontestualizzato, e quindi sussume molti altri scopi piu' specifici.

Altruista. E' sinceramente preoccupato per gli altri, e desidera aiutarli, anche a proprio svantaggio.

+ Dare Risorse. L'altruista vuole dare agli altri cio' di cui hanno bisogno.

+ Socievolezza. Questo scopo e' utile a caratterizzare l'atteggiamento gentile e amichevole che normalmente accompagna il comportamento dell'altruista.
 

Dispettoso. Vuole danneggiare gli altri, interferendo nei loro piani o rifiutando di aiutarli.

+ Ostilita'. Il dispettoso vuole che gli altri si trovino in difficolta'.

- Responsabilita' Sociale. Il dispettoso non si cura molto delle regole sociali.

- Dare Risorse. Poiche cerca di danneggiare gli altri, il dispettoso non e' disponibile ad aiutarli.

4. Un'architettura IA basata su tecniche di pianificazione. E' importante notare che nella maggior parte delle architetture usate per costruire agenti believable vengono enfatizzati gli aspetti reattivi (es. [2,10,11]). In questi sistemi, i comportamenti degli agenti sono generalmente rappresentati come sequenze di azioni precompilate dal progettista. Tuttavia, scrivere tali piani a mano presenta alcuni svantaggi: (a) e' un processo inefficiente in termini di tempo, soprattutto perche' e' necessario prevedere ed evitare eventi esogeni e interazioni negative fra le azioni; (b) non e' possibile costruire in modo automatico i comportamenti tipici delle varie personalita' a partire da una definizione di queste ultime, e infatti la personalita' solitamente rappresentata in modo implicito nella relazione predefinita fra situazioni e azioni; (c) infine, non e' possibile costruire automaticamente nuovi comportamenti in fase di esecuzione, quando essi possono essere necessari durante le interazioni con l'utente.

Questo lavoro cerca di superare tali limitazioni mediante l'integrazione di due sistemi IA di pianificazione: il pianificatore generativo PRODIGY [21], che viene usato per generare comportamenti multipli per gli agenti a partire dalle loro personalita', e il pianificatore reattivo RAP [6], usato per eseguire tali comportamenti in un ambiente interattivo. PRODIGY e' stato messo in grado di generare piani basati su personalita' mediante un approccio flessibile, in cui le preferenze degli agenti su operatori e piani sono calcolate automaticamente a partire dagli effetti collaterali che gli operatori producono rispetto agli scopi con elevata priorita' tipici di ciascuna personalita'. Una volta che tali piani sono stati prodotti, essi vengono tradotti e dati in ingresso a RAP, che li esegue a seconda della personalita' dell'agente e delle situazioni interattive dinamiche, valutate mediante un modulo che interpreta il comportamento dell'utente. Nuovi piani possono essere generati automaticamente anche in fase di esecuzione, e quindi immagazzinati per una loro eventuale riutilizzazione. I dettagli dell'architettura sono descritti in [16].

5. Interazioni fra un utente e agenti dotati di "personalita' di aiuto". L'architettura e' stata usata per realizzare diversi agenti che interagiscono con un utente manifestando i comportamenti tipici delle personalita' di aiuto sopradescritte. Per ciascun agente, PRODIGY ha prodotto in anticipo una serie di piani caratteristici della sua personalita', che vengono eseguiti da RAP nel perseguimento degli scopi dell'agente. Qui vengono mostrate e confrontate le tracce riguardanti due agenti, un altruista e un dispettoso, che interagiscono a turni alterni con un utente in uno scenario di vita quotidiana.

Interazione con l'agente Altruista

***USER (observe environment)

[L'interprete di RAP comincia a perseguire lo scopo have-fun istanziando il piano "watch-TV".]

***AGENT (WATCH-TV CHANNEL)

***USER (get building-blocks)

***AGENT (WATCH-TV CHANNEL)

***USER (play-with-obj building-blocks)

[Il comportamento dell'utente e' analizzato dal modulo di interpretazione, inferendo che l'utente ha voglia di giocare. Di conseguenza, l'interprete di RAP puo' perseguire lo scopo have-fun eseguendo un piano alternativo; tale piano e' stato precedentemente prodotto da PRODIGY, assegnando ad esso una preferenza maggiore per la personalita' altruistica.]

***AGENT (PLAY-WITH-AGT USER)

[Ora l'agente ha fame, e lo scopo "have-fun'' viene sospeso per perseguire quello piu' importante di "satisfy-hunger''. Si noti che l'agente altruista sceglie di perseguirlo condividendo il cibo con l'utente.]

***AGENT (GOTO-OBJ POPCORN)

                      (GET POPCORN)

                      (COOK POPCORN)

                      (SHARE-AND-EAT POPCORN USER)

***USER (eat popcorn)

[L'agente ha soddisfatto la propria fame, e quindi lo scopo "have-fun'' viene riattivato.]

***AGENT (PLAY-WITH-AGT USER)

[Dopo aver mangiato i popcorn i piatti sono sporchi, e l'utente chiede all'agente di lavarli.]

***USER (request Tony do-dishes)

[La richiesta dell'utente attiva lo scopo di lavare i piatti, piu' importante di have-fun, che quindi viene sospeso.]

***AGENT (CLEAN-DISHES)

                      (STOW-DISHES)

***USER (play-with-obj building-blocks)

[Dopo aver lavato i piatti, lo scopo "have-fun'' e' nuovamente perseguito.]

***AGENT (PLAY-WITH-AGT USER)
 
 

Interazione con l'agente Dispettoso

***USER (get building-blocks)

[L'agente persegue lo scopo have-fun guardando la TV.]

***AGENT (WATCH-TV)

***USER (play-with-obj building-blocks)

[Quando l'utente comincia a giocare, l'agente passa al proprio piano preferito (ostile nei confronti dell'utente) per perseguire lo scopo have-fun, piano precedentemente generato da PRODIGY.]

***AGENT (TAKE-AWAY USER BUILDING-BLOCKS)

***USER (cry-out)

[Ora l'agente dispettoso e' affamato, e mangia i popcorn senza offrirli all'utente.]

***AGENT (GOTO-OBJ POPCORN)

                       (GET POPCORN)

                       (COOK POPCORN)

                       (EAT POPCORN)

***USER (ask tom popcorn)

[Diversamente dal caso dell'agente altruista, questa richiesta riceve una risposta ostile da parte dell'agente dispettoso.]

***AGENT (PRETEND-TO-GIVE USER POPCORN)

***USER (go-away)

***AGENT (PLAY-WITH-OBJ BUILDING-BLOCKS)
 
 

6. Conclusioni. Questo lavoro mostra alcuni esempi di come sia possibile realizzare agenti che manifestano diverse "personalita' di aiuto", modellando ciascuna di esse come un insieme di scopi con priorita' differenti, e un insieme di preferenze su operatori e piani. L'implementazione e' basata su un'architettura IA che integra un pianificatore deliberativo e uno reattivo. Alcune tracce di interazioni fra un utente umano, un agente altruista, e uno dispettoso (altri esempi sono descritti in [16]), mostrano come l'interazione sociale possa essere influenzata dalla personalita' dell'agente artificiale, in termini sia di priorita' che l'agente da ai propri scopi, sia di preferenze che esso manifesta riguardo a piani specifici per perseguirli.

L'approccio alla modellazione di agenti dotati di personalita' qui descritto puo' essere applicato anche ad altri tipi di agenti di interfaccia. Per esempio, si puo' pensare ad agenti i cui scopi, riguardanti compiti specifici da eseguire, sono fissati dall'utente, il quale assegna ad essi diverse priorita' sulla base delle proprie necessita'. Tali priorita' influenzerebbero le preferenze assegnate alle azioni che possono essere usate per raggiungere gli scopi, e le varie combinazioni di scopi e preferenze produrrebbero "stili" individuali di problem solving; in tal modo, gli agenti sarebbero in grado di eseguire autonomamente comportamenti che sono tipici dei loro utenti.

Riferimenti Bibliografici

[1] E. Andre, T. Rist, and J. Muller. Integrating reactive and scripted behaviors in a life-like presentation agent. In W. L. Johnson, editor, Proceedings of the First International Conference on Autonomous Agents, pages 261--268. ACM Press, Minneapolis (MN, USA), 1998.

[2] J. Bates, A. B. Loyall, and W. S. Reilly. Integrating Reactivity, Goals, and Emotion in a Broad Agent. In Proceedings of the Fourteenth Annual Conference of the Cognitive Science Society, Bloomington (IN), 1992.

[3] J. Bates. The Role of Emotion in Believable Agents. Communications of the ACM, 37(7):122--125, 1994.

[4] J. Carbonell. Towards a Process Model of Human Personality Traits. Artificial Intelligence, 15:49--74, 1980.

[5] C. Elliott. The Affective Reasoner: A Process Model of Emotions in a Multi-Agent System. PhD thesis, Northwestern University, May 1992. Technical Report no. 32.

[6] R. J. Firby. Adaptive Execution in Complex Dynamic Domains. PhD thesis, Yale University, 1989. Technical Report YALEU/CSD/RR 672.

[7] M. E. Ford. Motivating Humans. Goals, Emotions, and Personal Agency Beliefs. Sage, Newbury Park (CA), 1992.

[8] B. Hayes-Roth, L. Brownston, and R. vanGent. Multi-Agent Collaboration in Directed Improvisation. In First International Conference on Multi-Agent Systems. MIT Press, Cambridge (Mass.), 1995.

[9] B. Laurel. Interface agents: Metaphors with character. In J. M. Bradshaw, editor, Software Agents, pages 67--77. AAAI Press, Menlo Park (CA), 1997.

[10] J. C. Lester and B. A. Stone. Increasing believability in animated pedagogical agents. In W. L. Johnson, editor, Proceedings of the First International Conference on Autonomous Agents, pages 16--21. ACM Press, New York (NY), 1997.

[11] P. Maes. Artificial Life meets Entertainment: Lifelike Autonomous Agents. Communications of the ACM, 38(11):108--114, 1995.

[12] M. Miceli and A. Cesta. Strategic Social Planning: Looking for Willingness in Multi-Agent Domains. In Proceedings of the Fifteenth Annual Conference of the Cognitive Science Society, Boulder (CO), 1993.

[13] L. A. Pervin. Goal Concepts in Personality and Social Psychology. Lawrence Erlbaum Associates, Hillsdale (NJ), 1989.

[14] W. S. Reilly. Believable Social and Emotional Agents. PhD thesis, School of Computer Science, Carnegie Mellon University, Pittsburgh, PA, May 1996. Technical Report CMU-CS-96-138.

[15] J. Rickel and W. L. Johnson. Integrating pedagogical capabilities in a virtual environment agent. In W. L. Johnson, editor, Proceedings of the First International Conference on Autonomous Agents, pages 30--38. ACM Press, New York (NY), 1997.

[16] P. Rizzo. Personalities in believable agents: A goal-based model and its realization with an integrated planning architecture. PhD thesis, Centro di Scienza Cognitiva, Universita' di Torino, Torino, 1998.

[17] P. Rizzo, M. M. Veloso, M. Miceli, and A. Cesta. Personality-Driven Social Behaviors in Believable Agents. In Working Notes of the AAAI Fall Symposium on "Socially Intelligent Agents'', 1997. AAAI Technical Report FS-97-02.

[18] P. Rizzo, M. M. Veloso, M. Miceli, and A. Cesta. Goal-based personalities and social behaviors in believable agents. Applied Artificial Intelligence, in press. Special Issue on "Socially Intelligent Agents'', edited by K. Dautenhahn and C. Numaoka.

[19] D. Rousseau and B. Hayes-Roth. Personality in Synthetic Agents. Technical report, Knowledge Systems Laboratory, Department of Computer Science, Stanford University, Stanford (CA), 1996.

[20] R. Trappl and P. Petta, editors. Creating Personalities for Synthetic Actors. Springer-Verlag, Berlin (Germany), 1997.

[21] M. M. Veloso, J. Carbonell, A. Perez, D. Borrajo, E. Fink, and J. Blythe. Integrating Planning and Learning: The Prodigy Architecture. Journal of Experimental and Theoretical Artificial Intelligence, 7:81--120, 1995.