Cos’è l’Intelligenza Artificiale emotiva?

Convergent Marketing®
5 min readDec 15, 2021

Con il termine intelligenza artificiale emotiva, anche conosciuta come affective computing, ci si riferisce a una branca dell’intelligenza artificiale che studia e realizza sistemi in grado di percepire, interpretare e interagire con le emozioni umane.

Tale capacità di interpretare segnali emotivi trasmessi dagli umani coinvolge vari canali: il testo, la voce, il video.

Nel caso del testo si parla sentiment analysis, una tecnica che appartiene alla NLP — natural language processing. Anche conosciuta come opinion mining, l’analisi del sentiment, rileva e quantifica il tenore emotivo dei campioni di testo analizzati.

Il suo obiettivo è quello di interpretare se le emozioni espresse sono positive o negative e in quale misura. Viene ampiamente usato dalle aziende per analizzare le reazioni pubblicate ai loro prodotti o servizi in particolare sui social, e in qualunque canale gli utenti abbiamo la possibilità di esprimere la loro opinione.

Ciò che avviene in pratica è che sono due tipi di intelligenza a confronto: quella naturale, umana (nello specifico emotiva), e quella artificiale, che ragiona per dati. Quest’ultima analizza e cataloga le emozioni, attribuendo valori numerici e dando quindi un punteggio alla qualità delle emozioni (positive, negative), e differenziandole anche per intensità (seccato, arrabbiato, furioso hanno intensità diverse).

La sentiment analysis si applica anche all’analisi dell’audio, dove però si analizzano anche altri elementi, non solo il testo del parlato. Si analizzano dei segnali, che in biologia evolutiva vengono chiamati segnali onesti, cioè spontanei, che nel caso della voce sono: l’energia che viene percepita nella voce, le pause che si usano nel discorso — che possono trasmettere insicurezza, ma anche calma — e infine l’intonazione, che può essere forte espressione di emotività. Pensiamo per esempio a un tono carico di rabbia o a uno carico di paura, di imbarazzo, etc.

Cogito, società che fornisce la tecnologia per l’analisi della voce in tempo reale nei contact center, mette in rilievo l’importanza della fusione tra i due flussi di dati, quelli della NLP e quelli dei segnali onesti, per meglio comprendere le emozioni nelle conversazioni e agire di conseguenza.

Sono circa 200 i segnali diversi utilizzati per riconoscere questi comportamenti, che poi vengono incrociati con i dati: “ È così che pensiamo alle emozioni: non tanto al loro mero riconoscimento, ma più alla comprensione dei comportamenti che ci consentono non solo di misurare, ma anche di influenzare le emozioni in un’interazione”, sostiene Skyler Place, Chief Behavioral Science Officer di Cogito.

Se già è possibile estrarre così tanta informazione a partire dall’analisi del testo e dell’audio, non è difficile immaginare quanto si possa rilevare dall’analisi del video.

Anche per il video, come per l’audio, entrano in gioco innumerevoli fattori al di là della scontata analisi delle espressioni facciali. Infatti l’AI può esaminare anche la gestualità, il modo di muoversi nello spazio, l’andatura, il modo di sedersi, e altri segnali fisiologici come la respirazione e la frequenza cardiaca.

Quali settori stanno già utilizzando l’intelligenza artificiale emotiva?

I principali settori in cui si utilizza l’AI emotiva sono: il settore automotive, i call center, la pubblicità, l’ambito della salute mentale e dell’assistenza a persone affette da malattie come l’autismo.

In particolare l’utilizzo dell’emotion AI nell’ambito della salute mentale è molto promettente, perché offre agli operatori sanitari uno strumento in più per supportare i propri pazienti. Questa tecnologia può analizzare segnali sottili nella voce e nell’espressione facciale dei pazienti, e reagire di conseguenza, proprio come farebbe un essere umano.

Un esempio è rappresentato da CompanionMx, spin-off di Cogito, con la sua app di monitoraggio della salute mentale. L’app Companion ascolta le persone quando parlano al telefono (previo consenso) e ne analizza la voce per rilevare segnali di ansia e di variazioni nell’umore.

L’app è di grande supporto agli utenti per acquisire auto consapevolezza, e migliorare la capacità di affrontare situazioni di stress. CompanionMX ha collaborato con il Department of Veterans Affairs, il Massachusetts General Hospital e il Brigham & Women’s Hospital di Boston.

Novità in Italia

Anche in Italia possiamo vantare un esempio di innovazione, con la società QuestIT, che ha recentemente presentato il suo digital human empatico e persuasivo, Asia è in grado di interagire con gli utenti attraverso la voce e il video, di comprenderne le emozioni e reagire di conseguenza.

La demo si è incentrata sull’utilizzo in un e-commcerce, e ha mostrato come Asia fosse in grado di registrare l’indifferenza nei confronti dei capi di abbigliamento mostrati, o anche il disappunto in alcuni casi, e suggerire alternative di conseguenza.

Siamo agli inizi, ma è già facile capire che saremo sempre più orientati verso questo tipo di interazioni con l’intelligenza artificiale, e ciò, inevitabilmente, solleva un certo numero di interrogativi:

  • Vogliamo davvero che le macchine leggano le emozioni?
  • Queste tecnologie hanno senso visto che il campo emotivo è complesso, e molto soggettivo?
  • Come verranno usati i dati sulle emozioni?
  • Esistono sufficienti tutele legali?
  • È giusto che vengano registrati stati mentali, emozioni e stati d’animo?
  • E come verranno utilizzati questi dati? Saranno discriminate le persone più insicure in un colloquio di lavoro? O sarà negato l’imbarco a una persona che mostra rabbia perché magari ha avuto una giornataccia?

Sono scenari che sembrano irrealistici, ma è opportuno farsi queste domande prima, ed è per questo che esiste l’ethical AI.

Questione etica

I rischi di uso improprio di questi strumenti sono noti, e sono ambito di studio dell’ethical AI, l’etica applicata all’intelligenza artificiale.

Il World Economic Forum menziona 9 prinicipi etici individuati da PricewaterhouseCoopers, tra essi l’accountability, cioè la responsabilità ultima derivante dall’uso improprio dell’intelligenza artificiale. Tutte le parti coinvolte sono in qualche modo responsabili, ma ci dovrebbe essere qualcuno che rende conto, qualcuno più responsabile degli altri.

La human agency, cioè la necessità di prevedere l’intervento umano, che dovrebbe essere stabilito in base al rischio percepito di comportamento non etico da parte dell’AI.

E poi sicurezza, privacy, equità, tutti principi necessari per garantire lo sviluppo di soluzioni di AI etiche, e che devono essere considerati in fase di design. Infatti le considerazioni etiche dovrebbero essere una delle maggiori preoccupazioni di un Conversation Designer, soprattutto se le emozioni sono così direttamente coinvolte come nel caso dell’emotion AI.

--

--

Convergent Marketing®
Convergent Marketing®

Written by Convergent Marketing®

La più innovativa metodologia di marketing che permette di superare il concetto di “campagna”, per offrire esperienze di contatto uniche tra marche e persone.

No responses yet