Alla soglia dei suoi 25 anni, Wikipedia ha annunciato il divieto degli articoli prodotti interamente dall’intelligenza artificiale. La decisione compare nella versione aggiornata delle regole sull’uso dell’IA e cita esplicitamente la versione inglese dell’enciclopedia libera. Sono previste solo due eccezioni: le traduzioni automatiche e le piccole modifiche a testi già esistenti, ma soltanto se esiste un controllo e una supervisione umana. La notizia è stata riportata anche da testate internazionali che hanno descritto il cambiamento come una risposta alle preoccupazioni sulla qualità dei contenuti. Questo annuncio si inserisce nella più ampia discussione su come integrare strumenti automatizzati nelle pratiche editoriali volontarie.
Indice
Che cosa sono i LLM e perché contano
I large language models (LLM) sono sistemi di intelligenza artificiale progettati per generare testo sulla base di grandi quantità di dati di addestramento. In parole semplici, un LLM impara schemi linguistici e statistiche dal testo esistente e usa queste informazioni per comporre risposte o paragrafi nuovi. Questi modelli possono produrre contenuti coerenti e fluidi, ma non hanno una comprensione fattuale pari a quella di un esperto umano. Per questo motivo le organizzazioni che curano fonti informative valutano con attenzione come e dove impiegarli. Wikipedia ha deciso di regolare il loro uso proprio perché la natura automatica della generazione solleva rischi di accuratezza e affidabilità.
Motivazioni della nuova policy
La policy aggiornata afferma che l’uso dei LLM spesso contrasta con i principi fondamentali dell’enciclopedia, come la verifica delle fonti e la neutralità delle informazioni. L’argomentazione centrale è che testi generati interamente dall’IA possono introdurre errori non evidenti e difficili da correggere senza una verifica umana approfondita. La regola non bandisce ogni impiego dell’IA: gli editori possono impiegare i modelli per suggerire modifiche di base ai propri testi, purché ogni suggerimento venga esaminato e approvato da un umano. Inoltre, la policy richiede che i contributi automatici non aggiungano contenuti originali non verificati prodotti dal modello stesso. Questo approccio mira a preservare l’affidabilità e la tracciabilità delle voci enciclopediche.
Come è stata presa la decisione
La scelta del divieto è il risultato di un voto tra gli editori volontari che compongono la comunità di Wikipedia, dopo un dibattito interno sulla gestione dell’IA. Nei mesi scorsi l’uso dell’IA aveva già suscitato posizioni contrastanti, con alcune persone favorevoli a sperimentazioni controllate e altre molto caute rispetto ai rischi. La fondazione e i contributori hanno ricordato che Wikipedia è nata il 15 gennaio 2001 e che la sua forza storica è sempre stata la verifica indipendente dei contenuti da parte di molteplici volontari. Per questo motivo il voto ha privilegiato standard che mantengano processi di controllo umano robusti. La decisione riflette dunque una preferenza per la qualità verificabile rispetto alla produzione automatica su larga scala.
Impatto sul traffico e sull’ecosistema digitale
I dati di traffico segnalano cambiamenti nell’uso delle fonti informative, con società di analisi come Similarweb che indicano come ChatGPT stia superando o erodendo le visite mensili a Wikipedia negli Stati Uniti. Questo fenomeno è legato al fatto che strumenti di conversazione basati su IA forniscono risposte dirette e sintetiche che attirano utenti in cerca di rapidità. Contemporaneamente, molte piattaforme stanno integrando funzioni di intelligenza artificiale nelle ricerche sul web e nei suggerimenti per la scrittura di e-mail, amplificando la presenza dell’IA nell’esperienza digitale quotidiana. La nuova policy di Wikipedia cerca di rispondere a questo mutato contesto, tutelando però la qualità delle voci enciclopediche. Per il pubblico e per i contributori la sfida sarà bilanciare accessibilità e affidabilità delle informazioni.
Rischi tecnici evidenziati
Un problema noto dei modelli generativi è la tendenza alle ‘allucinazioni’, cioè alla produzione di affermazioni errate o inventate con tono convincente. Questi errori possono compromettere gravemente una risorsa che si basa sulla verificabilità delle fonti e sul consenso tra contributori. Il fondatore di Wikipedia, Jimmy Wales, ha definito la situazione generata dall’IA come “a mess”, esprimendo preoccupazione per il potenziale impatto sulla qualità complessiva dell’enciclopedia. Per questo motivo la policy mira a limitare i casi in cui il contenuto generato automaticamente possa circolare senza un controllo umano capace di individuare e correggere le imprecisioni. La gestione delle allucinazioni resta una delle ragioni principali per cui l’uso diretto dei LLM è stato ristretto.
Cosa cambia per chi contribuisce
Per gli editori volontari il nuovo orientamento comporta regole pratiche su quando usare l’IA: l’impiego è ammesso per suggerire modifiche minori o per traduzioni, ma ogni intervento deve essere rivisto e approvato da una persona. Questo significa che non è permesso caricare voci intere generate automaticamente né pubblicare testi che derivano in larga parte da un modello senza supervisione. Chi lavora sulle pagine dovrà documentare le revisioni e garantire che le informazioni siano verificate da fonti affidabili. L’obiettivo è mantenere la responsabilità umana nel processo editoriale pur riconoscendo il potenziale supporto strumentale dell’IA. Nella pratica quotidiana cambieranno i flussi di lavoro: l’IA potrà assistere, ma non sostituire, il controllo editoriale umano.