Yahis Martari
Alma Mater Studiorum – Università di Bologna
Errare humanum est?
Negli ultimi anni l’intelligenza artificiale (IA) ha iniziato a occupare uno spazio sempre più visibile nella didattica delle lingue, trasformando non soltanto gli strumenti a disposizione, ma anche il modo stesso in cui pensiamo l’apprendimento. Applicazioni basate sul natural language processing o su modelli adattivi consentono di modulare esercizi, materiali e attività secondo i bisogni del singolo studente, restituendo feedback immediati e spesso molto più precisi di quelli ottenibili con pratiche tradizionali. Non sorprende quindi che diversi studi abbiano messo in luce il potenziale dell’IA nel rafforzare autonomia e motivazione degli apprendenti: come ricordano Li e Ni (2021), l’“AI-based language learning can significantly enhance learner autonomy, motivation, and achievement” (Computers and Education, 163). Tuttavia, ridurre la questione a un semplice passaggio di consegne dalla figura dell’insegnante alla macchina sarebbe fuorviante. Come sottolinea Kukulska-Hulme (2020), il ruolo del docente resta cruciale, soprattutto come “mediatore di significati e guida nell’uso responsabile degli strumenti di IA” (ReCALL, 32[3]). In questo senso, più che una rivoluzione improvvisa, l’IA sembra configurarsi come un catalizzatore che spinge verso pratiche didattiche più flessibili, inclusive e, forse, più vicine alla varietà reale delle situazioni comunicative. [TESTO 1]
Sì, esatto: possiamo chiamare questo primo capoverso “[TESTO 1]”; e sì, questo primo, ineccepibile (se non per le citazioni, entrambe scorrette) capoverso in effetti è stato scritto da ChatGPT. Sulla base della seguente istruzione (prompt):
Mi scriveresti un paragrafo introduttivo, di circa 1000 battute, sull’uso dell’AI nella didattica delle lingue? Vorrei uno stile accademico ma brillante. Puoi rendere il testo umano e poco riconoscibile come prodotto dell’IA? [PROMPT CHATGPT 1]
Che cosa succede se sottoponiamo il TESTO 1 all’attenzione di un detector, ovvero uno strumento di indagine che rileva la percentuale di possibilità che un testo sia stato prodotto dall’IA? Utilizziamo due tra gli strumenti più accreditati: https://www.zerogpt.com/ e https://gptzero.me/.
Rispettivamente con il primo e il secondo strumento, il risultato è il seguente.
I detector rilevano con tutta probabilità che il nostro primo paragrafo non è stato scritto da un essere umano ma dall’IA. Proviamo a trasformare il TESTO 1 con modificazioni minime, ovvero con un pizzico di imprecisione umana: un piccolo “inganno”. Inseriamo quindi un piccolo refuso di concordanza (“più precisi di quelli ottenibile“) e modifichiamo leggermente lo stile del testo nella parte iniziale (“trasformando gli strumenti tecnologici a disposizione, oltre al modo stesso in cui pensiamo l’apprendimento linguistico”). Il risultato è che il primo strumento misura in modo invariato, mentre il secondo cambia il proprio giudizio (68% Human): siamo riusciti con un minimo accorgimento a ingannare (solo parzialmente) GPTZero, ma non ZeroGPT.
Ma l’errore, forse, non è (più) cosa solo umana, neppure quello volontario. Infatti, ecco cosa succede se chiediamo a ChatGPT, con un nuovo prompt: “il testo è ancora molto riconoscibile dai detector. Puoi renderlo non riconoscibile?” [PROMPT CHATGPT 2].
La garbata e acuta risposta dell’AI è “Capisco bene la tua esigenza: molti detector segnalano testi “troppo puliti”, lineari e prevedibili come generati da IA. Il modo più efficace per evitarlo è introdurre un po’ di imperfezione umana: variazioni di ritmo, qualche costruzione più colloquiale, parentesi o incisi, piccole asimmetrie nella sintassi. In altre parole, scrivere come faresti tu stesso se stessi preparando un’introduzione “in una sola seduta” senza volerla rendere stilisticamente impeccabile.”
E il testo che propone è il seguente:
Quando si parla di intelligenza artificiale (IA) applicata alla didattica delle lingue, è facile pensare subito a scenari futuristici, quasi da laboratorio. In realtà, molte delle applicazioni sono già parte della quotidianità di studenti e insegnanti: correttori, chatbot, piattaforme che si adattano al livello dell’utente. Ciò che colpisce non è solo la rapidità con cui queste tecnologie offrono feedback, ma la possibilità di personalizzare i percorsi di apprendimento in modo che ogni studente si senta seguito “su misura”. Secondo Li e Ni (2021), “l’AI-based language learning can significantly enhance learner autonomy, motivation, and achievement” (Computers and Education, 163), una constatazione che trova conferma nell’esperienza pratica di chi sperimenta tali strumenti. Allo stesso tempo, resta evidente che la presenza dell’insegnante non è in discussione: come osserva Kukulska-Hulme (2020), i docenti sono e rimarranno “mediatori di significati e guide nell’uso responsabile” (ReCALL, 32[3]). Forse, allora, non si tratta di sostituire qualcosa con qualcos’altro, ma di imparare a convivere con una nuova risorsa, capace di aprire possibilità didattiche ancora poco esplorate. [TESTO 2]
Avremmo potuto ottenere lo stesso effetto con un servizio dedicato di umanizzazione (ad esempio https://undetectable.ai ) – per altro sospettamente sponsorizzato dai detector stessi –, ma questo forse avrebbe falsato il nostro piccolo esperimento. Del resto i detector, anche con il PROMPT CHATGPT 2, sono ingannati rispettivamente al 100 % e al 90 %:
La conclusione, fin qui, potrebbe essere che l’IA sa sbagliare meglio degli esseri umani (“persino quello”, dirà qualcuno). Tuttavia, questo non rende l’IA uno strumento per scrivere testi ottimi senza che un servizio di analisi possa accorgersi della “contraffazione” (uso questo termine in modo molto ampio, ma è sbagliato, perché di contraffatto non c’è niente nelle produzioni scritte dell’IA): va bene solo per produrre testi un po’ sciatti, come il TESTO 2.
L’esperimento dei pigri e dei volenterosi
Il prossimo step allora sarà individuare due categorie di scriventi che chiameremo rispettivamente “pigri” e “volenterosi”. Gli scriventi pigri saranno quelli che a partire da un testo prodotto dall’IA non riconoscibile ma imperfetto (come TESTO 2), operano banalmente un lavoro di revisione. Gli studenti volenterosi, per contro, saranno quelli che a partire da un testo umano, scritto di proprio pugno, chiedono aiuto all’IA per avere la sicurezza che tale testo sia impeccabile. Occupiamoci prima dei pigri, e revisioniamo il TESTO 2, manualmente, lavorando soprattutto sul lessico, così (in corsivo le modifiche):
Discutendo di intelligenza artificiale (IA) applicata alla didattica delle lingue, è possibile che si pensi a scenari sperimentali e non ancora presenti nella realtà glottodidattica. Molte delle applicazioni, tuttavia, sono già parte della quotidianità di studenti e insegnanti: correttori, chatbot, e piattaforme che impiegano strumenti adattivi che si allineano al livello dell’utente. Ciò che è massimamente rilevante non è solo la rapidità con cui queste tecnologie offrono feedback, ma la possibilità di personalizzare i percorsi di apprendimento in modo che ogni studente abbia a disposizione percorsi personalizzati in base al proprio reale profilo e livello di competenza. Secondo Li e Ni (2021), “l’AI-based language learning can significantly enhance learner autonomy, motivation, and achievement” (Computers and Education, 163). Tale constatazione trova del resto conferma nell’esperienza pratica di chi sperimenta tali strumenti. Allo stesso tempo, tuttavia, resta evidente che il ruolo dell’insegnante non è in discussione: come osserva Kukulska-Hulme (2020), infatti, i docenti sono e rimarranno “mediatori di significati e guide nell’uso responsabile” (ReCALL, 32[3]). Forse, allora, l’orizzonte operativo a livello metodologico didattico sarà soprattutto imparare a scoprire come l’IA rappresenti una risorsa per esplorare itinerari didattici ancora poco esplorati. [TESTO 3]
Il TESTO 3, prodotto dall’IA e revisionato manualmente da noi, è considerato dai detector ancora perfettamente umano. Il secondo degli strumenti ha addirittura riconosciuto la maggiore “umanità” del testo (99%). L’esperimento degli scriventi pigri quindi ci dice che con il prompt giusto, poco sforzo di revisione stilistica e nessun supporto da parte di strumenti automatici di umanizzazione abbiamo aggirato i detector.
Passiamo agli scriventi volenterosi. Cambiamo quindi testo e prendiamo l’incipit di un articolo faticosamente scritto e pubblicato da me qualche anno fa (Martari 2023: 239):
Nello spazio linguistico educativo, sia per ciò che concerne la ricerca, sia per ciò che riguarda l’azione didattica, quello che definiamo come metodo (cfr. Balboni, 2008, 2017,2023) si trova certamente in stretto rapporto con la tecnologia, fino al punto di potere considerare la strumentazione tecnologica come un possibile parametro di classificazione del metodo stesso (Porcelli, 2013: 40): infatti, ogni protocollo di ricerca e ogni modello operativo didattico si fondano su tecniche che sono concepibili e realizzabili (tanto per lo studioso quanto per l’insegnante) solo in relazione a determinate condizioni tecnologiche. Ad esempio, se riteniamo indispensabile che i dati di una ricerca siano raccolti e strutturati in un certo modo è perché abbiamo a disposizione gli strumenti tecnologici per poterlo fare, e questi strumenti sono oggi intrinsecamente e universalmente legati al computer e alla rete; d’altro canto, se in aula utilizziamo un’applicazione in voga come Wooclap per insegnare italiano o inglese o cinese, è perché esiste una tecnologia mobile con applicazioni sempre più funzionali a tutte le azioni quotidiane, comprese quelle didattiche [TESTO 4]
Come chiunque potrà verificare, il TESTO 4 è riconosciuto come umano al 100% da entrambi i detector. Proviamo a dunque sottoporlo a ChatGPT e chiediamo (con qualche vergogna) di “ottimizzare il testo rendendolo perfetto dal punto di vista dello stile accademico” [PROMPT CHATGPT 3]. Il TESTO 5 che ne scaturisce, ahinoi contraddistinto da “maggiore scorrevolezza sintattica, precisione lessicale e coerenza argomentativa” (parola di Chat GPT) è il seguente:
Nell’ambito educativo, sia in relazione alla ricerca sia rispetto alla pratica didattica, il concetto di metodo (cfr. Balboni, 2008, 2017, 2023) risulta strettamente connesso alla dimensione tecnologica, al punto da poter considerare la strumentazione tecnologica come un potenziale criterio di classificazione del metodo stesso (Porcelli, 2013: 40). Ogni protocollo di ricerca e ogni modello operativo didattico si fondano, infatti, su tecniche che risultano concepibili e applicabili (tanto per lo studioso quanto per l’insegnante) solo in rapporto a specifiche condizioni tecnologiche. Ad esempio, se riteniamo imprescindibile che i dati di una ricerca vengano raccolti e strutturati secondo determinate modalità, ciò è reso possibile dalla disponibilità di strumenti tecnologici adeguati, oggi inevitabilmente e universalmente legati al computer e alla rete. Analogamente, l’impiego in aula di applicazioni diffuse, come Wooclap, per l’insegnamento dell’italiano, dell’inglese o del cinese, si spiega con l’esistenza di tecnologie mobili sempre più funzionali alle pratiche quotidiane, comprese quelle di carattere didattico. [TESTO 5]
E i detector rispondono così a una nuova interrogazione su TESTO 5:
L’esperimento degli studenti volenterosi quindi ci suggerisce che un testo umano [TESTO 4] revisionato dall’IA diventa altamente sospetto per almeno uno dei detector. I pigri, pare, sono più avvantaggiati dei volenterosi.
Al termine di questa sezione allarghiamo il nostro sguardo con un cenno alla ricerca scientifica sulla scrittura con l’IA. Si tratta di una letteratura perlopiù incentrata su produzioni scritte scientifiche in campo medico e perlopiù in lingua inglese. Osserviamo che i risultati sono, come i nostri, genericamente contraddittori: secondo certi studi, infatti, strumenti come ZeroGPT sono efficaci (Liu et all. 2024), mentre secondo altri tali strumenti mostrano falsi positivi/negativi troppo elevati per essere attendibili (Weber-Wulff 2023). Inoltre, come si evince anche da quello che abbiamo illustrato con il nostro piccolo esperimento, gli strumenti tendono a essere facilmente ingannabili e danno opinioni non concordanti, specialmente con testi riformulati e rielaborati.
In conclusione, alcune implicazioni didattiche
Cosa significa tutto questo nel contesto dell’insegnamento linguistico? È senz’altro vero quello che dicevamo (o meglio diceva Chat GPT) nel primissimo paragrafo di questo articolo, sulla radicale trasformazione metodologica in atto ad opera dell’IA. D’altra parte, infatti, una bibliografia (sempre più vasta!) di tipo linguistico educativo (Xhu e Wang 2025) si focalizza sull’impiego delle nuove tecnologie e sembra suggerire che gli strumenti più importanti basati sull’IA siano bot, tool per la valutazione automatizzata dei testi scritti, per la traduzione automatica e per il riconoscimento vocale. Ed è quindi sempre più frequente l’impiego dell’IA (attraverso strumenti con Duolingo, Talkpall, Chat GPT) come supporto agli studenti nello sviluppo delle competenze di scrittura oltre che per l’espressione orale.
Quella della produzione del testo scritto rappresenta tuttavia una sfida che implica di considerare in modo particolare il ruolo della componente generativa e non solo assistiva dell’IA: per evitare il paradosso che gli studenti che abbiamo definito scherzosamente più “pigri” (o forse più scaltri) traggano maggiore vantaggio dall’IA, rispetto a quelli che abbiamo chiamato, altrettanto spiritosamente, “volenterosi”.
Solo una prospettiva realmente “human centered” (Capel e Brereton 2023) può limitare questo svantaggio, facendo sì che l’IA non sia concepita come sostituto, ma come complemento dell’attività formativa. Ciò implica, in primo luogo, l’elaborazione di un quadro etico che integri consapevolmente questi strumenti nei percorsi didattici. In secondo luogo, la promozione di pratiche di trasparenza nell’utilizzazione: agli studenti deve essere richiesto, quindi, non solo di usare in maniera critica l’IA, ma anche di dichiararne apertamente l’impiego nei processi di scrittura e di apprendimento. Solo attraverso un’educazione come questa alla responsabilità sarà possibile trasformare l’IA da potenziale fattore – comprensibilmente molto temuto dagli insegnanti e dal senso comune – di spersonalizzazione a opportunità di crescita cognitiva e metacognitiva, come parte della ricerca scientifica pare auspicare, se non proprio dimostrare.
Per approfondire
Capel, Tara & Brereton, Margot. 2023. What is Human-Centered about Human-Centered AI? A Map of the Research Landscape, in Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (CHI ’23). Association for Computing Machinery: New York, NY, USA, 359: 1–23. https://doi.org/10.1145/3544548.3580959
Liu, Jae Q.J., Hui, Kelvin T.K., Al Zoubi, Fadi. et al. 2024. The great detectives: humans versus AI detectors in catching large language model-generated medical writing. Int J Educ Integr, 20 (8). https://doi.org/10.1007/s40979-024-00155-6
Weber-Wulff, Debora, Anohina-Naumeca, Alla, Bjelobaba, Sonja et al. 2023. Testing of detection tools for AI-generated text. Int J Educ Integr, 19 (26). https://doi.org/10.1007/s40979-023-00146-z
Zhu, Meina & Wang, Chaoran. 2025. A systematic review of artificial intelligence in language education: Current status and future implications. Language Learning & Technology, 29(1): 1–29. https://hdl.handle.net/10125/73606
0 Commenti
Lascia un commento