FeaturedInformazioniInterviste

Intervista al dott. Federico Mantile, neuropsichiatra infantile su autismo e IA

D:Come valuti, dalla tua esperienza quarantennale, il potenziale trasformativo dell’Intelligenza Artificiale (IA) nell’ambito della neuropsichiatria infantile e adolescenziale?

R: Lo trovo di grande interesse sia perché organizza mentalmente icontenuti del clinico sia perché fornisce stimoli al ragionamento deduttivo, ma proprio in questo è il rischio e cioè che ci si passivizzi vanificando l’esperienza diretta, indispensabile in quanto la medicina e la psicologia non possono fare a meno dell’esperienza personale diretta, dell’intuito e dell’accoglienza dell’altro.

D:L’IA viene sempre più studiata per supportare la diagnosi di disturbi come l’autismo (ad esempio, tramite l’analisi di EEG, risonanze o linguaggio). Ritieni che l’IA possa ridurre significativamente i tempi di attesa per una diagnosi neuropsichiatrica, e in che misura questo cambierebbe l’approccio terapeutico?

R: La necessità di una diagnosi precoce è intuitiva: prima arriva la diagnosi, prima arriva il trattamento, maggiori sono le possibilità di inclusione, ma il vero fattore limitante non sono i tempi di attesa di una diagnosi, quanto di trattamento, con un SSN riluttante ed ottuso a mettere il clinico in condizioni di agire tempestivamente sia nella diagnosi che nella cura (il ritardo delle diagnosi, cure e trattamento, lungi da procurare un risparmio, costituiscono il vero spreco di energie e risorse perché gli interventi tardivi aggravano le situazioni e si pagano per un periodo più lungo e dispendioso: un bambino individuato e trattato precocemente esce prima dal circuito riabilitativo, invece un ritardo provoca tempi lunghissimi di recupero che aggravano la spesa pubblica).

Le diagnosi attuali, se basate solo sui test e non sull’esperienza del clinico, hanno i limiti che provocherebbe macroscopicamente l’IA: falsi positivi, cure iatrogene. C’è il rischio che l’IA si ammanti di una credibilità tipo “lo ha detto la scienza”, ma in realtà finisca per veicolare un pensiero dominante dove la narrazione della patologia diventa funzionale piuttosto a logiche economiche che non alla vera inclusione di forme alternative di stare al mondo.

D: Qual è, a tuo avviso, la linea di demarcazione etica e clinica tra l’utilizzo dell’IA come strumento di supporto decisionale per il clinico e un rischio di eccessiva delegazione del giudizio diagnostico e terapeutico (problema che si è già posto anche nell’ambito giurisdizionale)?
Data la tua lunga esperienza con l’autismo, queste domande approfondiscono l’applicazione specifica in questo disturbo.

Inserisci qualche nota curriculare importante

R: Ahimè, come in tutte le cose umane, la linea di demarcazione è il livello di sviluppo etico raggiunto dall’individuo, che dipende a sua volta da quanto la società, con i suoi condizionamenti, glielo conceda. Un clinico timoroso (medicina difensiva) farà sempre più affidamento sull’IA e meno alla sua esperienza diretta per timore di contenziosi.

Nel caso dell’autismo, per esempio, un clinico esperto immediatamente riesce a distinguere un caso di intelligenza arborescente da un disturbo da trattare, mentre né i test né l’IA potrebbe mai perché l’evidenza statistica, sulla quale si fondano questi ultimi, non rappresenta tutti i soggetti, per cui c’è una tendenza alla medicalizzazione che si è autoconvinta di un bias di conferma e di altro genere, etichettando spesso e volentieri individui con altre traiettorie di sviluppo e, di fatto, rendendoli iatrogenamente malati a causa di tali modalità diagnostiche.

Vi invito a leggere al riguardo l’interessante punto di vista di Loredana Di Adamo nel libro “Filosofia e Clinica” e le opere di Enrico Valtellina.

D: In che modo i sistemi di IA, analizzando grandi quantità di dati (comportamentali, clinici, neuro-immagini), potrebbero permettere una vera personalizzazione degli interventi per l’Autismo (DSA) che oggi è complessa da realizzare?

R: Questa domanda è induttiva! La risposta è insita nella domanda stessa: l’IA mi consente di analizzare grandi quantità di dati come non potrei
fare in altra maniera se non su tempi più dilatati, ma la personalizzazione degli interventi non è così automatica! Implica la presenza di persone, di team di individui, e quindi è una variabile relazionale che, se è al servizio del potenziale evolutivo del soggetto, funziona, ma se invece vuole “normalizzare” il soggetto ignorando le sue caratteristiche e le sue esigenze evolutive, produrrà un matto nel senso bagagliaio del termine.

D: Si parla di robotica assistiva e applicazioni basate sull’IA per l’insegnamento delle abilità sociali. Hai già visto esempi concreti o sperimentazioni promettenti che potrebbero integrarsi nelle terapie tradizionali? Quali sono i vantaggi e i limiti nell’interazione tra un bambino autistico e una macchina (es. un chatbot o un robot)?

R: Si, ho partecipato in tal senso a progetti promossi dalla Dott. Annamaria Schena e l’Università di Napoli, anche in collegamento con università internazionali ed il riscontro è stato entusiasmante. Ossia, il bambino, dello spettro autistico soprattutto, viene captato immediatamente da queste tecnologie, per le caratteristiche del suo stile cognitivo, e la metodica sviluppata permetteva una più rapida alleanza terapeutica coi terapisti che potevano veicolare così contenuti abilitativi e far crescere la relazione, cioè le tecnologie usate diventavano prompt favorenti la relazione, mai sostituiti.

D: Come potrebbe l’IA aiutare a monitorare i progressi dei trattamenti nel tempo in modo più oggettivo e tempestivo, in un disturbo così variabile
come l’Autismo?

R: Perché dovremmo fare una cosa del genere? Non esiste oggettività in questi casi, perché l’oggettività è piegata ai nostri bias cognitivi. Più voglio monitorare e più creo distanza relazionale dalla persona, ossia viene meno proprio il principio di cura. Posso crescere solo attraverso una relazione che sia spontanea, mentre una relazione valutativa mette la stessa distanza che mette il soggetto autistico a difesa del suo nucleo vulnerabile.

D: La tua esperienza nella formazione degli insegnanti è cruciale per capire l’impatto dell’IA nel sistema scolastico.


R: Si, è cruciale, indispensabile e necessita di team che collaborino sul lungo periodo, cosa che l’organizzazione scolastica ostacola per necessità interne, quindi si è costretti ad adattarsi a situazioni fortuite ed occasionali, ma l’impatto dell’IA necessita del confronto fra più operatori di matrice diversa ed allora sicuramente sarebbe di estrema utilità.

D: L’IA può generare materiali didattici personalizzati o fornire simulazioni di contesti sociali per gli studenti con neurodiversità. Ritieni che l’IA possa diventare un alleato efficace per gli insegnanti nel creare un ambiente scolastico veramente inclusivo, o è un rischio di isolamento digitale?


R: Come tutti gli strumenti, prendiamo il coltello come esempio, è l’uso che se ne fa a determinarne se si usa bene o male: può essere un grandissimo
alleato se non viene utilizzata come barriera autistica del docente per non entrare in relazione col bambino/adolescente.

D: Quali sono le competenze sull’IA che, secondo te, dovrebbero essere integrate urgentemente nei programmi di formazione per gli insegnanti curriculari e di sostegno?


R: La visione ad l’utilizzo della IA come duplice strumento: da una parte occasione di aggiornamento personale e dall’altra come strumento creativo/relazionale con l’alunno.

D: Potrebbe l’IA offrire agli insegnanti, in tempo reale, strategie di gestione della classe o di interazione con studenti neurodiversi, basandosi sui dati comportamentali osservati? Il tuo ruolo di consulente del Tribunale per i minori offre una prospettiva unica sui risvolti etici e legali.


R: Il mio ruolo ha inciso solo quando la sensibilità del magistrato consentiva soluzioni creative e nuove che avessero come terminale il maggior interesse per lo sviluppo psicofisico relazionale del minore, ma quel sistema, per la maggior parte, è ingessato nelle procedure e la prassi sono i precedenti, cosa che personalmente ritengo un limite.

D: Nella tua esperienza come consulente del Tribunale, quanto sei preoccupato che un uso improprio o non sufficientemente validato dell’IA possa introdurre “bias” algoritmici che potrebbero influenzare decisioni legali o di tutela (ad esempio, sull’affidamento o sulla capacità genitoriale)?


R: Sono terribilmente preoccupato, anche perché a volte ho letto sentenze che sotto il profilo formale erano ineccepibili, ma sembravano dettate da un’IA fredda e distaccata volta all’autoreferenzialità piuttosto che a risoluzioni creative.

D: I modelli di IA richiedono grandi quantità di dati neuropsichiatrici sensibili. Quali sfide etiche e di privacy vedi nell’aggregazione e nell’uso di questi dati per la ricerca e lo sviluppo di strumenti di IA? Chi deve essere il custode ultimo di queste informazioni?

R: Le sfide sono di una tal portata che mi gira la testa solo a leggere la domanda! La privacy è una utopia, non è quasi mai rispettata o viene utilizzata nei giochi di potere. Credo che debbano occuparsene team di professionisti di formazione diversa e di documentata preparazione specifica.

D: Esiste il rischio che l’IA in neuropsichiatria possa creare una disparità nell’accesso alle cure tra chi può permettersi tecnologie avanzate e chi no? Come possiamo garantire che questi strumenti portino beneficio a tutti i bambini e le famiglie?


R: Mi permetta di considerarla una domanda ingenua: nel nostro sistema economico la disparità è presente e non modificabile e, come la giustizia, possiamo parlare solo di una probabilità, un’occasione, di opportunità
non sistematica.

D: Se dovessi immaginare il tuo lavoro di neuropsichiatra fra dieci anni, quale credi che sarà lo strumento di IA più rivoluzionario che sarà parte della pratica clinica quotidiana?

R: Me la immagino come un microchip che mi permetta un confronto in tempo reale con altri professionisti, integrato con una banca dati come la mia attuale biblioteca digitale e con l’accesso ai dati sensibili del paziente (storia clinica ma anche sociale come ottica ICF).

D: Qual è il messaggio principale che ti sentirebbe di lasciare ai genitori, agli insegnanti e ai giovani clinici riguardo l’equilibrio tra la dimensione umana e la tecnologia nel futuro della neuropsichiatria?

R: La IA è uno strumento e come tale va usato in parallelo alla formazione clinica ed umanistica che non può prescindere dalla capacità di spendersi nella relazione umana de visu.

Note curricolari: il mio maggiore interesse nelle mie lezioni di professore a contratto all’università era incentrato sulla variabilità degli stili cognitivi, sulle traiettorie alternative egualmente normali degli individui, sulle caratteristiche personologiche legate alla dominanza emisferica; ho lavorato per 42 anni maturando un maggiore interesse e conoscenza delle neurodiversità tra cui autismo, adhd, dsa, doc ecc. sia in all che nei centri di riabilitazione; ho partecipato a progetti per l’utilizzazione di tecnologie robotiche e digitali nell’autismo.

NOTA INFO RIFERIMENTO ARTICOLO: https://sociologiperilsociale.it/2025/11/03/federico-mantile-neuropsichiatra-infantile-autismo-ai/

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *