L'IA non è una pandemia
Alcuni ritengono che la ChatGPT possa minare il sistema educativo e chiedono di regolamentare l'uso dell'IA nell'insegnamento. Gerd Kortemeyer è favorevole a farlo con senso della misura. Perché qualsiasi altra cosa potrebbe finire per essere controproducente.
- Leggi
- Numero di commenti
Quando la Covid-19 ha colpito per la prima volta, abbiamo risposto immediatamente sviluppando, promulgando e ritirando regole e restrizioni. Abbiamo emesso regolamenti su maschere, test, viaggi e vaccinazioni, alcuni dei quali erano contraddittori. A posteriori, le singole misure possono sembrare ridicole, inefficaci o semplicemente eccessive, ma all'epoca l'imperfezione era molto meglio dell'inazione: dovevamo fare qualcosa per contenere una pandemia mortale.
L'Intelligenza Artificiale non è una pandemia mortale, ma anche in questo caso corriamo il rischio di affrettarci a emanare norme e regolamenti drastici e troppo severi per impedirne la diffusione. Certo, rispetto ad altre tecnologie dirompenti, strumenti come ChatGPT sono arrivati all'attenzione del pubblico in modo piuttosto repentino. Nel frattempo, i critici chiedono un blocco totale dello sviluppo di nuovi modelli di IA. Interi Paesi stanno cercando di vietare ChatGPT e gli editori stanno estendendo i loro accordi con gli autori. Anche le università si affrettano a emanare nuovi regolamenti. Nella maggior parte dei casi, non si tratta di regolamentare l'utilizzo dell'IA, ma solo i casi in cui dovrebbe essere vietata. Sospetto che tra qualche mese molte di queste misure saranno considerate ridicole, inefficaci o semplicemente eccessive.
Dopo lo shock iniziale...
L'intelligenza artificiale non è una pandemia, ma uno strumento, anche se impressionante. Per gli esperti di educazione è stato uno shock rendersi conto che ChatGPT può superare un esame di ammissione all'università. Non solo, lo strumento ha superato corsi introduttivi di scienze naturali ed è in grado di creare saggi e presentazioni con contenuti notevolmente plausibili, anche se di fantasia. Parlo deliberatamente di finzione, perché per quanto questi testi possano apparire verosimili, si tratta in definitiva di una compilazione statisticamente probabile di frammenti di testo che non possono essere comprovati da fonti: il corpus di testi utilizzato per l'addestramento è proprietario, l'algoritmo mescola tutto e se si chiede a ChatGPT di fornire referenze, queste sono completamente inventate.
Tuttavia, è sorprendente la capacità di ChatGPT di programmare, tradurre lingue e riassumere testi. Avremo bisogno di tempo per scoprire cosa dice questo sull'IA, ma anche cosa dice sul nostro sistema educativo.
"Utilizzare il testo inalterato di uno strumento di intelligenza artificiale non è plagio, ma dire "l'ho scritto io" sarebbe chiaramente una bugia".Gerd Kortemeyer
L'intelligenza artificiale è stata vietata nei tornei di scacchi per preservare il piacere di questo abile gioco. Nella scienza, tuttavia, ci si aspetta sempre che si usino gli strumenti più potenti a disposizione per spingere i confini della conoscenza. L'istruzione superiore non può quindi limitarsi a Chi siamo a discutere il divieto totale di utilizzare uno strumento, ma piuttosto le conseguenze di questa interruzione per ciò che insegniamo e come lo insegniamo, e probabilmente solo alcuni limiti rigidi contro l'uso improprio dello strumento.
Non "solo" un plagio
Purtroppo, le nostre regole per prevenire il plagio non sono molto utili per porre dei limiti all'IA. Sono state redatte prima che l'IA diventasse adatta all'uso quotidiano e si concentrano principalmente sul garantire che la proprietà intellettuale di qualcun altro non venga spacciata per propria. A rigore, questo non si applica all'IA, a meno che non le concediamo una personalità propria. Invece di concentrarci sul lavoro di "qualcun altro", dovremmo concentrarci sul significato di "lavoro proprio": usare il testo di uno strumento di IA non è plagio, ma dire "l'ho scritto io" sarebbe chiaramente una bugia.
D'altra parte, gli strumenti di IA possono essere legittimamente utilizzati per superare il blocco dello scrittore e ottenere una rapida panoramica del "buono, del brutto e del cattivo" di ciò che si può trovare nel suo vasto corpus di testi su un determinato argomento. Poi, però, gli autori umani devono fare il loro lavoro separando il grano dal loglio e verificando e convalidando le informazioni da fonti scientifiche reali. A che punto del processo inizi esattamente il "lavoro proprio" nel senso di un risultato scientifico è una questione da discutere. Tuttavia, ritengo che una regola secondo cui non si possono usare parole o formulazioni generate dall'intelligenza artificiale vada troppo oltre. Prendiamoci il tempo necessario per sviluppare regole sensate. O abbiamo fretta perché ci vergogniamo di dare a ChatGPT delle note?
Meglio vaccinarsi contro le fake news
Tuttavia, è improbabile che le discussioni sull'imbroglio con l'IA siano costruttive. Gli studenti vengono da noi perché vogliono imparare e perché apprezzano il pensiero critico e indipendente e, in ultima analisi, la creatività. ? nostra responsabilità insegnare le abilità, i concetti, i metodi e le competenze che consentiranno loro di sopravvivere e prosperare in un mondo in cui l'IA sarà onnipresente. Mentre stiamo ancora gettando solide basi nelle scienze naturali e matematiche, dobbiamo ripensare alcuni piani di studio. Ad esempio, i semplici esercizi di programmazione potrebbero essere superati. Potremmo aver bisogno di concentrarci sulla computabilità, sugli algoritmi e sulla teoria dell'informazione. Potremmo giungere alla conclusione che, ad esempio, il riassunto manuale dei testi e altri contenuti didattici potrebbero essere obsoleti. Potremmo invece aver bisogno di vaccinare i nostri studenti contro la pandemia di fake news virali, fake science e deepfakes.