Intelligenze artificiali: IA tra accademia e videogioco

Approfondiamo l'affascinante tema del rapporto tra studi accademici sulle intelligenze artificiali e applicazioni pratiche nello sviluppo videoludico.

Intelligenze artificiali: IA tra accademia e videogioco
Articolo a cura di

I giochi sono il passato, il presente e il futuro delle intelligenze artificiali. Una frase a effetto? Non proprio. Fin dagli albori della ricerca in materia (come spiegato anche in un passato speciale su intelligenza artificiale ed evoluzione dei videogiochi) il terreno prediletto per testare e migliorare le capacità di un algoritmo sono stati giochi come gli scacchi, Go, e - da qualche tempo a questa parte - i nostri amati videogiochi.

Qualcuno li considera ancora una perdita di tempo. Non colossi come Google, che nel 2014 ha acquisito DeepMind (di cui parleremo a breve) o Sony e Microsoft, che dedicano risorse crescenti alla ricerca in questo campo, o ancora università prestigiose come l'IT University of Copenhagen, la New York University Tandon School of Engineering e l'Università di Malta. E degli intrecci tra accademia, sviluppatori di videogiochi e intelligenze artificiali abbiamo parlato con Vittorio Mattei, dottorando in Computer Science and System Engineering presso la Scuola IMT Alti Studi di Lucca, eccellenza italiana nella ricerca scientifica.

Dal gioco al videogioco

Oltre ad ospitare la Scuola IMT, Lucca è anche sede del GAME Science Research Center (GSRC), centro di ricerca interuniversitario che si occupa prevalentemente di scienza dei giochi. "Si tratta di una disciplina che prescinde dal supporto ‘fisico' del gioco stesso", precisa Mattei, "non tratta di maniera esplicita videogiochi, giochi di carte o da tavolo, bensì il filo rosso che li unisce tutti, ossia il ‘gioco' nella sua accezione scientifica". Ma cos'è che caratterizza i giochi? "Innanzitutto, la presenza di almeno un altro agente dotato di razionalità e consapevolezza. Quando si gioca a carte, ad esempio, altri esseri umani che si uniscono al gioco".

Se pensiamo ad un videogioco, questa regola è rispettata per i titoli multiplayer: durante una partita a Fortnite (2017) ci scontriamo con altri giocatori che, esattamente come noi, sono intenzionati a vendere cara la pelle. A pensarci bene, però, ciò a cui molti sviluppatori mirano è la creazione dell'illusione di non essere soli, anche quando si gioca ad un titolo single player.

È questo ad aver affascinato Mattei e tante altre persone che hanno deciso di intraprendere studi nel campo dell'informatica: "Non nego che uno dei momenti più iconici dell'intera storia videoludica è, per me, lo scontro con Psycho Mantis in Metal Gear Solid. Il boss non mi sembrava soltanto intelligente: avevo l'impressione che fosse onnisciente.

Anche i soldati semplici reagivano alla mia presenza, e sembravano dotati di un vero e proprio campo visivo"
. Abbiamo parlato di illusione, certo, e per chi studia in questo campo è facile scoprire l'inganno, la mano del burattinaio dentro la marionetta, ma in cambio si ricava l'impagabile soddisfazione di scoprire come funziona la magia ("così come sappiamo che un mago ha i suoi trucchetti, che di magico hanno ben poco, allo stesso modo si riesce a comprendere come i videogiochi non siano soltanto dei semplici software, ma anche una delle forme artistiche più corali che ci siano").

Le applicazioni delle intelligenze artificiali al fine di governare il comportamento di boss e personaggi non giocanti non sono state le prime ad essere percorse dagli studiosi. In realtà, tutto è iniziato dalla volontà di scoprire se un computer potesse diventare capace di giocare a scacchi... Prima ancora che esistessero i computer come li intendiamo oggi. E non esisteva neppure il nome "intelligenza artificiale", nato soltanto nel 1956, due anni dopo la prematura scomparsa di Alan Turing, che paradossalmente creò la moderna computer science con mezzi molto antichi: carta e penna.

Turing non voleva creare un algoritmo semplice: voleva creare un codice capace di giocare. Lo battezzò Turochamp. Ma l'algoritmo era troppo complesso, e non ne voleva sapere di venire implementato su un rudimentale Ferranti Mark 1 - il primissimo computer elettronico di uso generale ad entrare in commercio - e così decise di fare alla vecchia maniera. Con l'aiuto del collegio Alick Glennie come avversario, Turing consultava l'algoritmo per decidere ogni mossa, impiegando anche trenta minuti per effettuare tutti i calcoli necessari. Glennie, però, batté Turochamp in ventinove mosse, e Turing non vide mai il suo codice eseguito su un moderno computer: morì per avvelenamento da cianuro di potassio nel 1954, dopo essere stato condannato per omosessualità e sottoposto alla tortura della castrazione chimica.

Ma puoi ammazzare un uomo, non un algoritmo: il suo codice fu ricostruito nel 2012, nel centenario della nascita del grande scienziato, e sfidò il Grande Maestro di scacchi Garry Kasparov. Turochamp venne battuto in sedici mosse, ma la vittoria era morale: in fondo il codice di Turing è stato il precursore di quel Deep Blue che aveva sconfitto Kasparov nel 1996. Ecco, da Turing a oggi il rapporto tra computer e giochi si è intensificato sempre di più, fino a farsi quasi simbiotico da vent'anni a questa parte.

Dall'accademia all'industria

Oggi i computer sono un oggetto quotidiano, quasi triviale. Anche per questo la ricerca sull'intelligenza artificiale si è diretta in un ambito che offre possibilità applicative virtualmente infinite: quello dei videogiochi.

Si tratta di un mondo estremamente variegato, che va dalla creazione di IA superumane per sviluppare sfide complesse, alla creazione di comportamenti credibili per i personaggi non giocanti, fino alla generazione di contenuti (anche interi videogiochi) da zero. Quanto agli NPC, l'illusione di cui parlavamo poc'anzi - quella di trovarsi di fronte ad un agente razionale - viene creata tramite varie tecniche informatiche.

"Possiamo raggrupparle in due distinte categorie", spiega Mattei, "da un lato abbiamo gli algoritmi di decision making, dall'altro quelli di pathfinding. I primi, come suggerisce il nome, sono necessari per far compiere determinate azioni ai personaggi non giocanti, tramite macchine a stati finiti e alberi decisionali". Ma possiamo parlare di vera e propria intelligenza artificiale, se l'assunzione di decisioni avviene in maniera così deterministica? "Con queste tecniche, gli NPC non hanno la possibilità di adattarsi all'ambiente circostante e ai comportamenti del giocatore tramite stimoli esterni: rimarranno per forza di cose ‘incastrati' in comportamenti predeterminati che, per quanto realistici appaiano al giocatore, risulteranno comunque ‘statici'. Potremmo dire che, a livello puramente accademico, gli NPC non siano propriamente definibili come ‘intelligenze artificiali' in quanto non utilizzano tecniche proprie di quel settore di ricerca... O almeno non ancora".

Insomma, per quanto possano esibire dei comportamenti complessi, vi è un numero finito di possibili interazioni che possono "comprendere" e a cui possono reagire. Non mancano esempi virtuosi, soprattutto in anni recenti: è sempre calzante l'esempio di Alien: Isolation (2014), in cui lo Xenomorfo è lo stalker degli incubi di chiunque.

Capace di assumere indizi sul comportamento del giocatore anche in maniera indiretta - ad esempio dallo spostamento di elementi d'arredo delle stanze già attraversate - il nemico assume comportamenti variegati e a tratti sorprendenti, che tutt'oggi lo rendono una pietra di paragone nella riflessione sull'intelligenza artificiale (se così vogliamo chiamarla) degli NPC nei videogiochi. Si potrebbe ricostruire la storia dell'intelligenza di questi personaggi, dagli anni '70 ad oggi, ma si tratta di un argomento così vasto da necessitare una trattazione autonoma.

Comunque, le cose si fanno davvero interessanti, e per comprendere appieno le direzioni prese da ricerca e sviluppo videoludico è necessaria una premessa. Secondo Georgios N. Yannakis e Julian Togelius (Artificial Intelligence and Games, 2018, p. 11), tra i più autorevoli studiosi del settore, la nascita degli studi per un'implementazione dell'intelligenza artificiale nei videogiochi è avvenuta nel 2001, precisamente con la pubblicazione dell'articolo scientifico Human-Level AI's Killer Application: Interactive Computer Games, firmato da John Laird e Michael van Lent.

I due autori del paper caldeggiavano un impiego delle IA non tanto per costruire personaggi credibili nei mondi di gioco, bensì per raggiungere un livello di

expertise paragonabile a quello di un essere umano nel campo dei giochi digitali. E in effetti questa è stata una delle direzioni prese dagli attori più importanti in questo ambito: DeepMind ha "addestrato" con successo, tramite tecniche di deep reinforcement learning, delle reti neurali capaci di cimentarsi in decine di classici giochi Atari (i risultati sono stati presentati nel paper Playing Atari with Deep Reinforcement Learning, di V. Mnih, K. Kavukcuoglu, D. Silver, A. Graves, I. Antonoglou, D. Wierstra, M. Riedmiller). Era il 2013, e negli anni seguenti il mondo accademico ha iniziato ad interrogarsi su un obiettivo più ambizioso: è possibile costruire una sola intelligenza artificiale capace di affrontare più videogiochi differenti, il tutto con un training limitato? Anche stavolta è stata DeepMind a segnare un nuovo traguardo. Agent 57 ha recentemente battuto i benchmark umani in tutti e cinquantasette i giochi per Atari 2600, grazie a meccanismi adattivi che l'hanno portato ad un processo di apprendimento efficiente e di enorme successo (Agent57: Outperforming the Atari Human Benchmark, di A. Puigdomènech Badia, B. Piot, S. Kapturowski, P. Sprechmann, A. Vitvitskyi, D. Guo, C. Blundell, 2020). È legittimo domandarsi quale impatto questi algoritmi possano avere, in concreto, per gli sviluppatori dei videogiochi.

In particolare, siamo proprio sicuri che dei cecchini nemici intelligentissimi, creati con le tecnologie più all'avanguardia, possano risultare davvero divertenti per i giocatori?

"L'obiettivo degli sviluppatori è generare divertimento e coinvolgimento nel giocatore", evidenzia Mattei, "non necessariamente utilizzando le ultime scoperte in ambito accademico. Salvo che queste non vadano a migliorare l'esperienza di gioco, naturalmente". Ma cosa possiamo migliorare, in concreto?

Chi ha paura dell'intelligenza artificiale?

È curioso come l'intelligenza artificiale sia sulla bocca di tutti, ma in alcuni casi si riscontri una mancanza di interesse da parte degli sviluppatori sulle sue potenzialità. Questo fenomeno può essere spiegato in termini molto semplici: non sempre ciò che tanto affascina gli accademici risulta parimenti allettante a chi vive nel mondo dello sviluppo videoludico.

Come evidenziato da Yannakis e Togelius (ibid., p. 52), spesso accade che nuovi algoritmi di intelligenza artificiale vengano presentati agli sviluppatori da accademici entusiasti, solo per sentirsi rispondere che si tratta di progressi del tutto inutili a livello pratico.

Vero è che, almeno in alcuni casi, questa reazione potrebbe essere determinata da una scarsa comprensione delle problematiche concrete da parte degli studiosi (o delle potenziali applicazioni degli algoritmi da parte degli sviluppatori), ma c'è qualcosa di più. La verità è che lo sviluppo videoludico è un'attività che tende ad evitare rischi non necessari e a navigare a vista, anche a causa delle incertezze economiche che caratterizzano il settore (illustrate in maniera puntuale dal giornalista Jason Schreier in Press Reset: Ruin and Recovery in the Video Game Industry, 2021).

Deadline eternamente incombenti, investimenti enormi che devono fruttare per mantenere lo studio a galla, una concentrazione totale sul raggiungimento dell'obiettivo senza fare troppi disastri: le tecnologie utilizzate devono essere sicure, provate, comprensibili. Non c'è molto tempo per la ricerca, se non sei un colosso come Sony o Microsoft, anche perché non sai se sarai ancora nel settore nel giro di due o tre anni. Meglio giostrarsi tra macchine a stati finiti e collaudati algoritmi di pathfinding.

Alcuni lavoratori dell'industria temono di perdere il lavoro a causa delle intelligenze artificiali, che ormai sono capaci anche di creare giochi da zero. È il caso di ANGELINA, una IA game designer sviluppata da Michael Cook, ricercatore presso la Queen Mary University of London (potete giocare le creazioni di ANGELINA su itch.io).

Un esperimento seminale nella creazione di contenuto - tema che approfondiremo tra pochissimo - è stato svolto nel 2008, con la generazione di semplici videogiochi simili, per regole e struttura, al celebre Pac-Man (An experiment in automatic game design, di J. Togelius, J. Schmidhuber, 2008). Gli autori hanno tecniche di intelligenza computazionale per creare un videogioco da zero, basandosi anche sulla teoria della artificial curiosity formalizzata dallo stesso Schmidhuber. Per adesso, però, siamo lontanissimi dal poter fare a meno del fattore umano. Senza andare così in là, l'impiego delle IA per generare contenuto proceduralmente (si parla di PCG, Procedural Content Generation) è ben noto nella prassi dello sviluppo.

"Possiamo affermare con certezza che la generazione procedurale di contenuto sarà una delle principali aree di interesse per le ricerche nel prossimo futuro", spiega Mattei, "e a testimonianza di ciò vi sono le numerose posizioni aperte in questo ambito da aziende come Sony. Gran parte del lavoro per lo sviluppo di un titolo sta proprio nella generazione di contenuto, anche triviale: terreno, mappe, alberi... Le tecniche di PCG potrebbero ridurre drasticamente il carico dello sviluppo per lasciare più tempo e risorse nel comparto artistico e di design delle meccaniche di gioco".

Le affermazioni di Mattei sono supportate dai fatti: nel 2005, il leggendario game designer Will Wright diede alla Game Designer Conference una dimostrazione pratica sull'importanza degli investimenti per creare tecniche di PCG efficienti da mettere a disposizione degli sviluppatori. In seguito a questo intervento - significativamente chiamato "The Future of Content" - vari studiosi si sono dedicati ad effettuare un breakdown dei costi di un titolo tripla A nei vari comparti. Prenderemo come riferimento l'analisi fatta da Monstervine nel 2013: impressionante è lo share preso dalle spese di marketing (40%), seguito dai processi creativi ed artistici (37%) e di programmazione (12%). Seguono a ruota altre voci dal peso meno significativo, tra cui il debugging (3%).

Insomma, il PCG potrebbe contribuire in maniera importante a diminuire gli enormi costi di sviluppo nel comparto artistico. Ciò potrebbe preoccupare - come già evidenziato - gli sviluppatori, ma forse bisognerebbe guardare l'argomento da un'altra angolazione: strumenti intelligenti di design potrebbero aiutare i lavoratori del settore a concentrarsi maggiormente sulla parte creativa, lasciando ad una intelligenza artificiale i compiti più ripetitivi.

"In altre parole, l'algoritmo di PCG può offrire agli artisti una sorta di bozza iniziale, su cui poi gli artisti possono lavorare aggiungendo dettagli e

personalizzando il tutto", spiega Mattei, "e si può anche lavorare in maniera inversa: i designer lavorano per primi su una piccola porzione del mondo di gioco, che poi verrà utilizzata come sample dall'algoritmo per la creazione di una parte più ampia dell'ambientazione". È un rapporto che può essere biunivoco, insomma: "Certamente. Nell'ultimo scenario riconosciamo un'applicazione del Procedural Content Generation via Machine Learning (PCGML), in cui i dati di training sono dei sample rappresentativi di ciò che si vuole rappresentare, e l'algoritmo produce nuovi contenuti basandosi sui dati di input. Ed ecco che il problema di dover codificare ‘a mano' le specifiche di design viene risolto". Non è finita qui perché, tra metodi di apprendimento automatico experience-driven, generazione automatica di puzzle e anche di personaggi non giocanti, la tana del Bianconiglio è davvero profonda. Ma quanto, di preciso?

Il futuro dell'intelligenza artificiale nei videogiochi

La verità, come è facile immaginare, è che nessuno lo sa, ma in tanti cercano di spingere le frontiere sempre più lontano. Per le ragioni già illustrate, il mondo accademico fa da apripista creativo, con risultati a volte sorprendenti: gli articoli su tecniche di PCG, game data mining, game testing automatizzato e molto altro ancora sono all'ordine del giorno.

Senza spingerci fino a sognare ad occhi aperti una intelligenza artificiale generale in ambito videoludico - capace di svolgere compiti differenti, dal player

modeling al debugging, e di approcciare giochi anche molto diversi fra loro - si può mantenere un approccio concreto e finalizzato a risolvere problemi pratici delle varie figure professionali del mondo videoludico. Può risultare sorprendente, ma le intelligenze artificiali potrebbero dare una mano anche ai critici. Fare critica non è semplice, e richiedere una profonda comprensione non soltanto del mondo dei videogiochi, ma anche (e forse soprattutto) del più ampio milieu sociale, storico e culturale in cui il prodotto si inserisce. Approntare degli algoritmi che possano aiutare i critici in questo difficile compito, fornendo automaticamente parametri, informazioni e altri elementi utili, potrebbe risultare decisivo per consentire al recensore di pensare a collegamenti inaspettati, o semplicemente avere la certezza di inserire dati corretti nel proprio articolo. Qualche piccolo passo è stato già fatto in questa direzione: ANGELINA, di cui abbiamo già parlato, genera in autonomia una overview dei giochi da lei sviluppati. Sistemi di questo tipo potrebbero aiutare anche i vari store online a selezionare con maggiore accuratezza i giochi per aree tematiche, affinità nel gameplay o genere di appartenenza. Oltre a creare videogiochi da zero o dare una mano agli sviluppatori con la PCG, l'intelligenza artificiale potrebbe diventare un game director.

In una certa misura, questo è già successo in titoli come Left 4 Dead (2008), in cui l'algoritmo si occupava in maniera davvero efficace di regolare la curva di difficoltà per i giocatori. In questo caso si teneva conto di una sola dimensione dell'esperienza del giocatore: pensate a cosa sarebbe possibile fare raccogliendo un numero maggiore di dati e costruendo IA capaci di intervenire su diversi aspetti del gioco.

Ecco, sulla raccolta dati è bene soffermarsi un momento. I progressi nel fertile campo del data mining - soprattutto da parte di colossi come Google o Meta, i quali, come ben sappiamo, non procedono sempre in maniera trasparente - portano alla luce delicate questioni etiche.

Lasciamo sempre più tracce nel nostro passaggio su Internet, e non passano inosservate. Il player modeling consiste nello studio di modelli computazionali dei giocatori, inclusi la predizione e l'espressione di caratteristiche del giocatore umano, così come manifestate attraverso comportamenti di vario genere. Un importante studio ha approfondito i profili etici critici di questa pratica (Ethical Considerations for Player Modeling, di B. Mikkelsen, C. HolmgArd, J. Togelius, 2017), riassumibili in quattro principali profili: privacy, rischi di censura, titolarità dei dati, rinforzo degli stereotipi. Le compagnie potrebbero utilizzare la profilazione del giocatore per migliorare la qualità delle pubblicità che gli vengono sottoposte - e questa è un'implementazione già presente su vari store - ma orizzonti più inquietanti (come il controllo di particolari tipi di giocatori da parte di regimi totalitari o, ancora una volta, aziende) potrebbero concretizzarsi nel prossimo futuro: basti pensare alle scoperte sulla personalità dei giocatori, confermate con dei questionari, grazie ai database di World of Warcraft (Introverted elves & conscientious gnomes: the expression of personality in World of Warcraft, di N. Yee, N. Ducheneaut, L. Nelson, and P. Likarish, 2011), o alle correlazioni tra stile di gioco e profilo caratteriale del giocatore rintracciate dai dati raccolti in Battlefield 3 (Psyops: Personality assessment through gaming behavior, di S. Tekofsky, P. Spronck, A. Plaat, J. van den Herik, J. Broersen, 2013).

E questa è solo la punta dell'iceberg: lo studio del "come" un giocatore si comporta all'interno di un videogioco potrebbe portare ad identificare "cosa" l'utente realmente desideri, magari creando nuove meccaniche di gioco a cui gli sviluppatori, inizialmente, non avevano pensato (sul tema si veda Playing smart: on games, intelligence and artificial intelligence, di J. Togelius, 2019).

Nell'ottica del supporto agli sviluppatori, si possono approfondire le strade dell'impiego delle IA nel debugging e del playtesting, consentendo ai team di aggiustare il tiro su aspetti come difficoltà, pulizia del codice o scoperta di potenziali exploit delle meccaniche di gioco da parte dell'utente finale, oppure elaborare strumenti creativi per la generazione automatica di idee di cui i game dev possano avvalersi. Per rendere l'esperienza dei giocatori più piacevole e sicura, sono già stati implementati algoritmi capaci di riconoscere comportamenti tossici nelle chat dei titoli multiplayer, ad esempio in League of Legends (2009): le possibilità di questo approccio sono state oggetto di attenzione anche sulle prestigiose pagine della rivista Nature (Can a video game company tame toxic behaviour?, di B. Maher, 2016).

Un futuro con qualche ombra, quindi, ma anche ricco di stimoli e possibili ricadute positive. Mattei è molto fiducioso: "Credo che il settore videoludico diventerà sempre più stimolante anche per i ricercatori non strettamente appassionati di videogiochi, creando un legame sempre più forte tra accademia e industria". Uno strand, un ponte, un legame basato anche sulla comprensione delle necessità concrete degli sviluppatori, con progressi che potrebbero alleggerire il peso - spesso insopportabile - posto sulle spalle di chi costruisce mondi videoludici. Speriamo di avervi convinto di quanto scritto in apertura: i giochi sono il passato, il presente e il futuro delle intelligenze artificiali. Speriamo che le intelligenze artificiali creino un avvenire luminoso e sostenibile per il mondo del videogioco, e ringraziamo Vittorio Mattei per l'interessante chiacchierata.