Emozioni e IA

Emozioni e IA

Qualche tempo fa, ho avuto una conversazione con una mia amica che si occupa di macro-economia e dello studio dell’impatto delle nuove tecnologie sullo sviluppo dei sistemi economici, sociali e politici globali.
Dopo interessanti dissertazioni su come evolveranno i sistemi decisionali in scenari complessi grazie all’Intelligenza Artificiale - forse spinti dall’ottimo Sauvignon che stavamo sorseggiando - abbiamo provato a definire, senza alcuna velleità scientifica, la differenza fra emozioni e sentimenti.

La mia amica era in sintonia con quanto, almeno un tempo, si sosteneva in letteratura: le emozioni sono sensazioni provvisorie, che possono nascere e morire in poco tempo. Dal suo punto di vista non sono efficaci strumenti di valutazione, perché instabili. I sentimenti, invece, si costruiscono nel tempo, richiedono un impegno consapevole per essere coltivati, mantenuti e condivisi. E’ un po’ la differenza che condividiamo culturalmente fra la passione iniziale dell’innamoramento, dovuta ad un’attrazione improvvisa e spesso confusiva, e l’amore coltivato negli anni, che si fonda su un affetto solido e duraturo. 

La mia posizione non era del tutto concorde. Le emozioni sono ottimi indicatori per valutare la situazione, se però si considera l’elemento contestuale. Non sono impulsi improvvisi venuti da chissà dove, ma rispondono a come rappresentiamo simbolicamente la relazione ed il contesto che stiamo vivendo in quel momento. Esplorarle ci aiuta a capire cosa sta avvenendo, ma appunto vanno esplorate, pensate, interrogate. Una stessa emozione (la paura ad esempio) può nascere da motivazioni molto diverse fra loro ed avere significati diversi a seconda del contesto e così vale per lo stimolo che può evocare emozioni differenti (pensate allo stesso stimolo, come un coltello, se in mano ad un uomo incappucciato in una strada buia o se tenuto da uno chef mentre affetta dei porcini).

Se le emozioni possono essere indicatori più o meno affidabili per capire i nostri vissuti, cosa accade se esse vengono utilizzate da un’Intelligenza Artificiale per valutare le nostre performance o le nostre intenzioni di acquisto?  

Una premessa è d’obbligo. L’utilizzo della tecnologia in ambito psicologico non è nocivo a priori, può avere molte applicazioni virtuose. Già a metà degli anni ‘60, l’Artificial Intelligence Laboratory del Massachusetts Institute of Technology ideò ELIZA, un semplice bot testuale, che permetteva di simulare una seduta psicoterapeutica fra un paziente ed il software, con risultati piuttosto sorprendenti. Anche se solo per sessioni molto brevi, era difficile sia per i profani, sia per professionisti della salute mentale, differenziare i trascritti dell’interazione fra paziente e bot e quelli utilizzati come confronto, fra un terapeuta in carne ed ossa e lo stesso paziente. Le differenze vennero riscontrate nel metodo d’intervento utilizzato, ma non nella qualità dell’interazione e nella sua efficacia in termini di empatia e coinvolgimento.

Tuttavia, negli ultimi decenni si sta sviluppando una precisa branca del neuromarketing e dell’AI, chiamata affective computing. Questa branca studia software in grado di riconoscere il comportamento e le emozioni umani e operare scelte sulla base del mood espresso dal cliente o dal lavoratore.
L’affective computing interessa molto alle aziende che intendono migliorare le performance lavorative dei propri impiegati, o aumentare il grado di sintonia fra il consumatore ed il prodotto, proprio analizzando le reazioni emotive degli individui di fronte allo stimolo.

Il problema nasce nel momento in cui si va un po’ più a fondo nella questione. Sono principalmente 3 i problemi di carattere etico, ma anche scientifico, che sono stati sollevati rispetto all’utilizzo di software di riconoscimento emozionale.

In primo luogo, come spesso accade nelle ricerche svolte in Occidente o comunque nei paesi più ricchi, viene sottovalutato il ruolo delle sotto-culture o culture locali. I software sono testati principalmente su maschi bianchi eterosessuali e provenienti da paesi industrializzati, mostrando molti bias di fronte ad altre categorie, come donne, LGBT+, etnie diverse da quella occidentale, etc. (Huyskes, 2021). 

In secondo luogo, ciò che preoccupa è l’uso potenziale che potrebbero farne alcune aziende. Se già l’idea che un software possa comprendere, ma anche orientare, le nostre scelte di acquisto sulla base dell’analisi delle nostre emozioni ci può inquietare, la situazione diventa ancora più grave quando tali software vengono utilizzati per controllare e discriminare gli impiegati. E’ il caso di una filiale cinese del produttore giapponese di fotocamere Canon, che ha introdotto la cosiddetta tecnologia di “riconoscimento del sorriso”, permettendo l’ingresso in azienda solo ai dipendenti che mostravano palesemente espressioni facciali allegre e gioiose (Lupis, 2021). La felicità come strumento di discriminazione e di controllo sembra il preludio a scenari distopici.

Il terzo problema, forse il più rilevante, è la protezione della privacy individuale. Qui torniamo a quanto detto all’inizio: le emozioni sono la parte di noi che è più imprevedibile, ma che soprattutto richiede, per essere compresa, un’analisi del contesto e delle relazioni attraverso cui interagiamo, oltre che dei motivi, spesso inconsci, che ci portano a provarle.
Per molti sono la parte più intima della nostra identità, sono complesse, polisemiche, situazionali. Facciamo un altro esempio. Negli Stati Uniti è stato ideato Cogito, un software che non solo permette di riconoscere dal tono della voce lo stato d’animo di un cliente, ma che promette anche di perfezionare le performance degli operatori di call center, riconoscendo le loro reazioni emotive e chiedendo loro di adeguarsi a standard di empatia ben definiti durante la telefonata (Renda, 2021).
Qui il problema non è solo etico e di privacy, o di controllo violento da parte dell’azienda, che ora pretende di valutare non solo le prestazioni professionali, ma anche il tipo di comunicazione emozionata che caratterizza la relazione con il cliente. Il punto è anche scientifico: i software non sono programmati per riconoscere la variabilità del contesto. Il rischio di generalizzazione è elevatissimo ed un tono di voce non empatico da parte dell’operatore può essere riconosciuto, ma non compreso nelle sue motivazioni. La mancanza di empatia, ammesso che sia possibile riconoscerla tramite un algoritmo, è un dato che va interpretato ed inserito nel contesto più ampio dell’esperienza vissuta dall’individuo nella relazione con l’altro. Utilizzare quel dato per correggere il comportamento professionale diventa allora molto pericoloso, anche perché riduce l’emozione ad un parametro oggettivo e misurabile. Un metodo che rischia di essere estremamente precario dal punto di vista neuroscientifico e psicologico. 

PrecedenteIl padrone nella testa
SuccessivoAccettiamo l’amore che pensiamo di meritare?