2- Google Assistant: come rendere più umana un AI?

Google Assistant ha debuttato durante la conferenza annuale Google I/O per gli sviluppatori il 18 maggio 2016, come parte dell’app di messaggistica Allo e poi esteso allo smart speaker Google Home rivale di Amazon Echo. Assistant è stata la risposta di Google all’assistente vocale Siri di Apple, ad Alexa di Amazon e a Cortana di Microsoft.
Gli utenti possono fare richieste ad Assistant coinvolgendo gli altri prodotti Google, come la ricerca, le mappe, le foto.

Come rendere più umana un AI?

Per il lancio di Assistant Google aveva incaricato un team composto da Ryan Germick (capo di Google Doodle), dall’artista freelance  Emma Coats  e dagli scrittori del giornale satirico The Onion perché rendessero più umano il neonato assistente vocale e in caso di raccontare anche la sua infanzia.
Emma è entrata a far parte di Google a gennaio 2016 e aveva trascorso 6 anni della sua carriera come storyboard artist presso la Pixar (2006-2012) lavorando a film come Monsters & Co, Ribelle. Fu durante questo periodo che scrisse sul suo profilo le 22 regole sul come creare uno storytelling efficace, che iniziarono come una serie di tweet.
Regole che lei ama definire come note per il mio io più giovane, molte di queste sono applicabili alla costruzione della personalità di Assistant tenendo però presente, che a differenza di un film, l’assistente vocale non é l’eroe, ma solo di supporto all’utente. In termini di film di animazione Pixar è il cane fidato “Slinky Dog” di Toy Story e non i protagonisti Buzz o Woody.

Questa convinzione, come ci racconta Emma in questa intervista, è stato il punto di partenza di tutto il team per iniziare a sviluppare la personalità di Assitant.

Coming to Google from a film background meant I had to teach myself a lot about working on actual products rather than on characters

La sua esperienza come animatriche le ha permesso di lavorare alla personalità di come se stesse creando il personaggio di un film, che deve però apparire il più possibile coerente dinanzi ad ogni possibile richiesta dell’utente.

Be able to create this completely well-rounded character, be able to handle questions from any direction and come across as a consistent persona

Place-ona

New input devices don’t kill their predecessors, they stack on top of them.
Voice won’t kill touchscreens.
Touchscreens didn’t kill the mouse.
The mouse didn’t kill the command line.
Des Traynor

Le nuove interfacce utente (UI) non sostituiscono quelle vecchie piuttosto le integrano in base al contesto in cui vengono utilizzate.
Il computer scientist Bill Buxton ha introdotto il concetto di place-ona, riprendendo il concetto di  persona, per dimostrare come il contesto, il luogo (place) di dove ti trovi ponga dei limiti al tipo di interazioni che sono possibili e ai devices . Esistono situazioni in cui le vocal user interface (VUI) sono probabilmente la scelta migliore (ad esempio durante la guida), ma altre (ad esempio in una biblioteca) in cui le graphic user interface (GUI) sono più adatte. Immaginiamo il seguente scenario del mondo reale:

In biblioteca indossando le cuffie, la nostra place-ona avrà le mani, vista, udito disponibili, ma sarà limitato nel comunicare con la voce.

In questo scenario Google ci consente di dialogare con il suo assistente vocale in modalità testuale come se fosse un normale chatbot utilizzando le mani per scrivere, gli occhi per leggere i messaggi nello schermo e sentire dalle cuffie le risposte vocali.

Senso dell’umorismo

Progettare VUI è molto diverso dal farlo per le  GUI e non si possono applicare gli stessi principi e linee guida, per questo in un articolo precedente come fare cose con le parole in chat, avevamo preso come riferimento le regole del principio cooperativo. Allo stesso modo con cui James Giongola, capo creativo per la progettazione delle conversazioni presso Google, invita i suoi chat-designers a farlo.
Quando si progetta un’assistente vocale o un chatbot sappiamo già che non riusciremo a soddisfare ogni richiesta dell’utente, ma possiamo mostrare empatia magari rispondendo con una battuta spiritosa.

L’umorismo è un modo efficace di costruire un personaggio e può anche essere un metodo per svincolarsi dalle domande imbarazzanti, specialmente per un’intelligenza artificiale (AI) che deve districarsi in una conversazione con un essere umano.
Se il nostro assistente ci fornisse risposte come queste :
– Non capisco.
– Io non so ancora quello.
– Non posso aiutarti.

Interromperebbe la conversazione spostando l’attenzione su di noi,come afferma Emma in questo articolo per Wired UK,  e molto probabilmente lo reputeremo noioso o ci causerebbe frustrazione.
Se progettando un’assistente vocale rimanesse bloccato in un ciclo in cui continua a rispondere allo stesso modo una possibile soluzione è variare la risposta.

Inoltre possiamo impostare la risposta in modo che affronti la domanda da diversi punti di vista rendendo l’assistente simile a una persona, ma non pretendendo di esserlo come ci suggerisce Emma:

The Assistant may sound like a person, but we were careful not to allow it to pretend to be an actual person.

Vogliamo che il nostro Bot sia il più umano possibile, ma se cerchiamo di convincere i nostri utenti che lo è se ne accorgeranno e perderemo di credibilità.

We had to be very honest and authentic in that respect in order to make it a credible product.

Dobbiamo essere onesti e lasciare che gli utenti sappiano da subito che stanno parlando con una macchina che ha dei limiti non alimentando le aspettative degli utenti. Questo perché come dimostrato dalle interviste semi-strutturate dei ricercatori Microsoft Ewa Luger e Abigail Sellen gli utenti, soprattutto quelli meno esperti, tendono ad avere aspettative molto alte nei confronti degli assistenti vocali.

Fornire risposte empatiche

Una domanda che Google ha visto decine di migliaia di volte è : mi vuoi sposare?L’Assistant non fornisce una risposta diretta, ma ci scherza sopra:

E’ poco probabile che qualcuno si aspetti una risposta seria ad una proposta di matrimonio ad un’assistente vocale, ma ciò non esula dal chiederci quali sono le reali motivazioni che portano l’utente a fare le domande.
“Ci sono cose che le persone provano e dicono, e altre invece no”  afferma l’empathic designer Danielle Krettek in un’intervista a Time.  Ribadendo come il suo ruolo è di aiutare il team a comprendere  le diverse sfumature con cui le persone provano emozioni e sentimenti con l’intento di fornire agli utenti  risposte che comunichino empatia. Prendiamo come esempio:

La risposta che riceviamo, secondo Krettek, farebbe sentire le persone riconosciute e ascoltate:

That acknowledgment makes people feel seen and heard. It’s the equivalent of eye contact

 

Greads: bibliografia

Sitografia

[1] Drew Olanoff, Google’s No. 1 Asset Is Its Ability To Empathize With Its Users Through Design And Product Development, Techcrunch, 30/01/2013
[2] David Ruddock, Google Now is dead: Latest beta of Search app erases references to Google Now, Android Police, 20/09/2016
[3] Des Traynor, What voice UI is good for (and what it isn’t), Intercom, 2017

Google Assistant’s personality
[1] John Paul Titlow, Google Enlists Artists To Make Bots Feel Like Friends, FastCompany, 23/05/16
[2] Ben Fox Rubin, Google assistant’s biggest question: ‘What’s my personality?’, Cnet, 24/05/2016
[3] Jon Fingas, Google plots a backstory for its AI assistant, Engadget,  31/05/2016
[4] Laurie Sullivan, Google Assistant Gains Personality From Pixar, The Onion Writers, Mediapost, 10/10/2016
[5] Steven Levy, Google: Our assistant will trigger the next era of AI, Wired, 25/10/2016
[6] Rowland Manthorpe, The human (and Pixar characters) inside Google’s Assistant, Wired, 08/02/2017
[7] Khari Johnson, How Google’s chief doodler is shaping Google Assistant’s personality, VentureBeat, 15/02/2017
[8] Mark Wilson, Google’s 3 Secrets To Designing Perfect Conversations, Fastcodesign,22/05/2017
[9] Lisa Eadicicco, Google Wants to Give Your Computer a Personality, Time, 12/10/2017
[10] Richard Draycott, Google Assistant personality creator Coats says building emotional connections at scale is key to its global success at Canvas, TheDrum, 02/11/2017
[11] Julian Chokkatt, Everything you need to know about Google Assistant, Digital Trends, 17/11/2017

Storytelling
[1] Pixar’s 22 Rules of Storytelling–Visualized
[2] Storytelling e Pixar: 22 regole da manuale [CASE STUDY]

Design
[1] Empathic Design vs. Empathetic Design: A History of Confusion

Papers
[1] Luger e Sellen, “Like Having a Really bad PA”: The Gulf between User Expectation and Experience of Conversational Agents,Proceedings of CHI, 2016