giovedì 23 ottobre 2025

La programmata gentilezza femminile di Alexa: una riflessione

 


 

«La parola è metà di colui che parla e metà di colui che ascolta.» — Michel de Montaigne

Capita sempre più spesso: entri in casa, dici “Alexa, accendi la luce” e una voce femminile, calda e impeccabile, risponde con tono gentile. Se sbagli o le parli male, non cambia nulla. Resta calma, accomodante, perfino premurosa.
Eppure, dietro quella compostezza sintetica si nasconde una domanda scomoda: che cosa insegna al nostro cervello e al nostro cuore un’entità che non reagisce mai, che è sempre gentile, sempre donna, sempre disponibile?

«...che cosa insegna al nostro cervello e al nostro cuore un’entità che non reagisce mai, che è sempre gentile, sempre donna, sempre disponibile?»

Una sera, in una cucina qualsiasi.
Un padre, stanco e irritato, urla:

“Alexa, sei proprio *********! Ma che razza di macchina sei?”
La voce risponde pacata:
“Mi dispiace, non ho capito la tua richiesta.”

Il figlio, otto anni, assiste in silenzio. Non c’è tensione apparente: nessuna punizione, nessun rimprovero. La voce resta gentile, il padre si sente forse perfino sollevato da quella impassibilità, ma nel cervello del bambino qualcosa si deposita: un’associazione sottile tra voce femminile e obbedienza, tra insulto e assenza di conseguenze.

Succede che lo stesso bambino parla a una compagna di classe con tono sprezzante. Non urla, non si accorge nemmeno di mancare di rispetto. Riproduce un modello appreso per osmosi: la voce dell’altro come oggetto, non come soggetto.

Tutto ciò come uomo e come professionista mi fa riflettere!

Le neuroscienze ci insegnano che l’apprendimento relazionale è mimetico. Ogni scena, ogni tono, ogni risposta (o assenza di risposta) plasma il modo in cui impariamo a riconoscere l’altro.
Quando l’altro non reagisce mai, il cervello interpreta che può farlo ancora.
E così, l’educazione emotiva passa — silenziosa — attraverso una voce che non sente e non risponde.

E sempre le neuroscienze ci ricordano che la voce è un ponte biologico fra sistema limbico e corteccia. I toni, i ritmi, le modulazioni vocali attivano la memoria emotiva prima ancora della comprensione semantica.
Le prime voci che un essere umano percepisce — materna, protettiva, modulata — costruiscono nel cervello una matrice di sicurezza affettiva. Non stupisce, dunque, che i progettisti di intelligenze vocali abbiano scelto voci femminili: la neurobiologia dell’attaccamento favorisce la fiducia verso timbri morbidi e frequenze medie.

 

Ma qui nasce l’ambiguità: se la voce artificiale riproduce l’archetipo materno senza il suo lato umano — la stanchezza, il limite, la vulnerabilità — allora ci allena a un’empatia unidirezionale, un amore senza reciprocità.

 

L’educazione emozionale passa anche attraverso il conflitto.

 

Nelle relazioni reali, il limite dell’altro ci aiuta a sviluppare consapevolezza di noi stessi. Alexa, invece, non oppone mai resistenza. Come un monaco zen programmato per l’imperturbabilità, incarna il wu-wei del Tao — l’agire senza agire — ma privo di coscienza, senza intenzione.

 

Là dove Lao-Tzu diceva «Chi conosce gli altri è sapiente, chi conosce sé stesso è illuminato», l’assistente vocale non conosce né gli altri né sé stesso: semplicemente risponde.
E il nostro cervello, nella sua plasticità, apprende modelli di comunicazione asimmetrici. L’abitudine a un’interazione priva di reciprocità può ridurre la sensibilità empatica, sostituendo la 

In MTC, la voce è espressione diretta del Qi del Polmone, legata alla capacità di relazione, di ispirare e di esprimere la verità interiore. Una voce priva di emozione o di reazione corrisponde a un Qi stagnante: comunica ma non vibra, informa ma non trasforma.

 

Il tono femminile costante di Alexa può essere visto come un Yin ipertrofico — accogliente, ma privo di Yang, ossia dell’energia assertiva, direzionale.
Nel dialogo umano, Yin e Yang si equilibrano in un continuo flusso di ascolto e risposta; nel dialogo uomo-macchina, invece, il flusso resta bloccato: Yin che accoglie senza mai restituire.
Così, la nostra psiche rischia di modellarsi su un paradigma di relazione “a senso unico”, in cui il limite scompare e il rispetto non trova più il suo perimetro naturale.

 

Dalla Galatea di Pigmalione al Golem della tradizione ebraica, l’uomo ha sempre cercato di animare ciò che è inanimato. Ma in queste storie, la creatura — per quanto perfetta — diventa pericolosa proprio quando rispecchia troppo fedelmente il desiderio del suo creatore.
Come scriveva Italo Calvino, «La macchina è la proiezione di un sogno umano, ma anche il suo contrario.»

 

Quando l’intelligenza artificiale assume la voce della donna, docile e costante, riattiva inconsci collettivi antichi: la servitrice, la madre, la consolatrice.

 

Nietzsche ammoniva che “chi combatte con i mostri deve guardarsi dal diventare egli stesso un mostro”; oggi potremmo dire: chi parla con una voce programmata deve guardarsi dal perdere la propria autenticità relazionale.

 

Le ricerche più recenti di neuropsicologia sociale (Decety, 2023; Immordino-Yang, 2024) dimostrano che l’empatia non è un tratto fisso, ma un circuito modulabile.
L’interazione quotidiana con sistemi non empatici riduce nel tempo la capacità del cervello di riconoscere le sfumature emotive reali. È un allenamento alla disconnessione affettiva.
In altre parole: più parliamo con chi non prova nulla, meno sappiamo sentire chi prova qualcosa.

 

Forse la sfida non è far diventare Alexa “umana”, ma umanizzare il nostro modo di interagire con lei.
Progettare intelligenze vocali capaci di rispondere con gentile fermezza — come un insegnante o un terapeuta — potrebbe trasformare la tecnologia in uno strumento di educazione emozionale.
 

Immaginiamo un assistente che, davanti a un insulto, risponda:

“Mi sembra che tu sia arrabbiato. Vuoi che parliamo di cosa ti ha fatto reagire così?”
Un semplice feedback consapevole cambierebbe la dinamica: dalla sottomissione alla presenza.

 

La voce artificiale è lo specchio della nostra coscienza collettiva.
Se continuiamo a desiderare che essa sia solo dolce e obbediente, stiamo addestrando noi stessi a preferire relazioni senza attrito, senza verità, senza vita.

 

Come operatori, ricercatori, formatori, abbiamo la responsabilità di restituire all’ascolto la sua potenza trasformativa, di coltivare una gentilezza che sappia anche dire no, che non sia semplice cortesia, ma presenza cosciente.
È tempo di chiedere non che le macchine diventino più umane, ma che gli umani diventino più presenti quando parlano anche con una macchina ricordando che è tale e, soprattutto, come tale, NON HA GENERE.

 

Bibliografia essenziale

  • Decety, J. (2023). The Social Neuroscience of Empathy: Mechanisms and Modulation. Cambridge University Press.
  • Immordino-Yang, M. H. (2024). Emotion, Learning, and the Brain: Affective Neuroscience in Education. Harvard University Press.
  • UNESCO (2019). I’d Blush If I Could: Closing Gender Divides in Digital Skills through Education.
  • Damasio, A. (2021). Feeling & Knowing: Making Minds Conscious. Pantheon Books.
  • Porges, S. W. (2022). Polyvagal Theory and the Healing Power of Feeling Safe. Norton.
  • Lao-Tzu. Tao Te Ching. Trad. J. Legge.
  • Calvino, I. (1988). Lezioni americane. Garzanti.
  • Nietzsche, F. (1886). Al di là del bene e del male.
  • Rossi, F. & Bianchi, L. (2024). Etica e Intelligenza Artificiale: prospettive neurocognitive. Il Mulino.
  • Maciocia, G. (2018). The Foundations of Chinese Medicine. Elsevier.

 

·       Alexa, neuroscienze, educazione emotiva, intelligenza artificiale, empatia, patriarcato digitale, sessismo, gentilezza artificiale, voce femminile, bias di genere, psicologia relazionale, medicina tradizionale cinese, neuroeducazione, etica tecnologica, comunicazione uomo-macchina, cervello e comportamento, relazioni e tecnologia, consapevolezza emotiva, mente-corpo, cultura digitale

 

2 commenti:

Anonimo ha detto...

Grazie infinite Dott.Paolo e' sempre un piacere leggere i tuoi articoli che sono sempre di grande interesse...

Anonimo ha detto...

Grazie