Le persone spesso faticano a distinguere tra voci umane e voci generate dall’intelligenza artificiale (IA), ma il nostro cervello risponde diversamente a queste due tipologie di voci. Questa scoperta è stata presentata durante il Forum 2024 della Federation of European Neuroscience Societies (FENS).
Lo studio, condotto da Christine Skjegstad e il professor Sascha Frühholz dell’Università di Oslo, ha coinvolto 43 partecipanti che hanno ascoltato voci umane e sintetiche esprimere cinque diverse emozioni: neutrale, arrabbiata, paura, felice e piacere. I partecipanti dovevano identificare se le voci fossero naturali o sintetiche, mentre il loro cervello veniva monitorato tramite risonanza magnetica funzionale (fMRI), una tecnica che rileva le variazioni nel flusso sanguigno cerebrale.
Dai risultati è emerso che le persone identificano correttamente le voci umane solo il 56% delle volte e le voci AI il 50,5% delle volte, dimostrando una difficoltà generale nel distinguere tra i due tipi di voci. Tuttavia, le voci felici umane sono state riconosciute correttamente il 78% delle volte, mentre solo il 32% delle voci felici generate dall’IA sono state identificate come tali, suggerendo che le persone associno la felicità con l’umanità.
Le voci neutrali generate dall’IA sono state più facilmente identificate come artificiali rispetto a quelle umane (75% contro 23%), e le voci neutre AI femminili sono state riconosciute più frequentemente delle loro controparti maschili. Inoltre, sia le voci IA che quelle umane neutrali sono state percepite come meno naturali, affidabili e autentiche, mentre le voci umane felici sono state considerate le più autentiche.
L’analisi dell’attività cerebrale ha rivelato che le voci umane attivano aree del cervello legate alla memoria (ippocampo destro) e all’empatia (giro frontale inferiore destro), mentre le voci IA stimolano regioni associate al rilevamento degli errori (corteccia cingulata media anteriore destra) e alla regolazione dell’attenzione (corteccia prefrontale dorsolaterale destra).
Christine Skjegstad ha spiegato che la capacità delle attuali tecnologie di generare voci quasi indistinguibili da quelle umane pone nuove sfide, poiché le persone trovano difficile distinguere tra i due tipi di voci. Questo suggerisce che la tecnologia IA vocale è ormai in grado di imitare le voci umane in modo convincente.
In futuro, i ricercatori intendono esplorare se tratti di personalità come l’estroversione o l’empatia influenzino la capacità di distinguere tra voci umane e artificiali. Il professor Richard Roche, non coinvolto nello studio, ha sottolineato l’importanza di comprendere le risposte cerebrali alle voci IA per anticipare le implicazioni cognitive e sociali di questa tecnologia, che potrebbe avere sia rischi, come le truffe, che benefici, come il supporto terapeutico e le sostituzioni vocali per chi ha perso la propria voce naturale.