Buone notizie

 

Se con l’Intelligenza artificiale si mettesse male, può finire molto male”. È stato il Parlamento europeo il primo ad accogliere la richiesta d’aiuto di Sam Altman, il presidente di Open Ai, che in prima battuta si era rivolto al Senato americano per chiedere norme e leggi che tengano sotto controllo l’Ia. Alla fine di giugno, ha approvato
le modifiche alla bozza del regolamento noto come Artificial Intelligence Act o AI Act.
Tra gli altri, ne dà notizia la newsletter Guerre di Rete (dalla quale abbiamo preso spunto anche in altre occasioni, grazie!) che dedica gran parte dell’edizione di questo mese proprio all’Intelligenza artificiale. Secondo la società di cybersecurity Imperva, quasi la metà del traffico nel web (47.4%) è prodotto da Bot, ossia da un programma per computer progettato per imitare o sostituire le azioni di un essere umano. E due terzi di questo traffico automatizzato è alimentato da “bad bots”, cioè sistemi automatici che fingono di essere umani per sottrarre dati o influire sulle opinioni del lettore.
Che cosa succede quando i contenuti generati dalle Ia proliferano su Internet e i modelli iniziano ad addestrarsi su questi dati invece che su contenuti generati principalmente da umani? Per rispondere a questa domanda, Carola Frediani – che della newsletter è l’autrice – cita uno studio pubblicato nell’archivio open access ArXiv, una piattaforma di condivisione della ricerca aperta a chiunque. Tra gli autori c’è Ross Anderson, professore di security engineering all’università di Cambridge e all’università di Edimburgo. È dal suo blog che registriamo la risposta: “Fino ad oggi, la maggior parte del testo online è stato scritto da esseri umani. Ma questo testo è stato usato per addestrare GPT3 e GPT4, che sono sbucati come assistenti di scrittura nei nostri strumenti di editing. Quindi sempre più testo sarà scritto da modelli linguistici di grandi dimensioni (LLM). Dove porta tutto questo? Cosa succederà a GPT quando gli LLM contribuiranno alla maggior parte del linguaggio trovato online? E non si tratta solo di testo. Se si addestra un modello musicale su Mozart, ci si può aspettare un risultato che assomiglia un po’ a Mozart ma senza la sua scintilla, chiamiamolo “Salieri”. E se Salieri addestra la generazione successiva, e così via, come suonerà la quinta o la sesta generazione?”.
In pratica, l’utilizzo di contenuti generati da altri modelli di Ia per addestrare nuovi modelli di Ia provoca difetti che si accumulano durante i vari passaggi trasformando il testo in spazzatura e provocando quello che gli autori definiscono model collapse.
Secondo il saggio, i dati originali generati dagli esseri umani rappresentano il mondo in modo più equo, con la conseguenza non banale che i contenuti generati da umani avranno ancora più valore. E questa è una buona notizia anche per la democrazia.

Vi aspettiamo in edicola a settembre.

Buona lettura e buone vacanze!

Vincenzo Mulè
Direttore responsabile

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Dimensione massima del file: 50MB Formati consentiti: jpg, gif, png Drop file here