Indice dei contenuti
Apri Google, clicchi sul primo risultato, inizi a leggere e dopo pochi secondi qualcosa stona. Le frasi filano, il tono è gentile, la struttura sembra giornalistica. Ma non c'è nessuno dall'altra parte: quel testo è stato scritto da un modello linguistico per essere visto da un algoritmo pubblicitario, non letto da una persona. Il fenomeno ha un nome dal 2025, slop, e Merriam-Webster e la American Dialect Society lo hanno scelto come Parola dell'Anno. Secondo i dati raccolti dalla società di cybersicurezza Graphite, gli articoli generati da IA rappresentano già più della metà di tutti i contenuti in inglese pubblicati in rete.
L’aritmetica del residuo digitale
Dietro la diffusione dello slop c'è una logica economica brutalmente semplice. Produrre un articolo costa meno di 2,25 dollari. Distribuirlo su una rete di centinaia di domini che imitano blog indipendenti permette di generare decine di milioni di impressioni pubblicitarie al mese. Se una frazione minima di quelle impressioni viene monetizzata, lo schema diventa redditizio. Gli inserzionisti, che comprano spazio in modo programmatico, finanziano senza saperlo la stessa infrastruttura che erode l'utilità di internet.
Le conseguenze si misurano già nei comportamenti di ricerca. Un'indagine dell'Università di Lipsia e della Bauhaus-Universität Weimar ha documentato un calo del 25% nel volume delle ricerche tradizionali prima del 2026, attribuito in parte al degrado della qualità dei risultati. Le proiezioni di eMarketer indicavano che fino al 90% del contenuto web potrebbe essere di origine sintetica entro la fine dell'anno.

AutoBait, anatomia di una fabbrica di rumore
Nel marzo 2026 il laboratorio antifrode di DoubleVerify, con i ricercatori Arik Nagornov, Merav Geles e Lia Bader, ha pubblicato una delle analisi più dettagliate mai realizzate sul funzionamento interno di queste operazioni. L'hanno chiamata AutoBait. La rete identificata comprendeva oltre 200 domini, ciascuno presentato come un blog di lifestyle indipendente. In realtà condividevano tutti lo stesso sistema automatizzato di generazione, basato su prompt predefiniti inviati a un modello linguistico.
Ciò che ha reso l'indagine particolarmente utile è stato un errore operativo degli stessi gestori: avevano lasciato esposto nel JavaScript delle pagine il codice completo che alimentava la rete, incluse le istruzioni esatte inviate al modello. Quelle istruzioni rivelavano un dettaglio tecnicamente significativo: il sistema non cercava di ingannare i lettori con sofisticazione narrativa, cercava di ingannare i sistemi di rilevamento pubblicitario. Le immagini dovevano sembrare scattate con uno smartphone da una persona reale. I titoli dovevano attivare la curiosità senza impegnare a nulla. L'obiettivo dichiarato nel codice era massimizzare le opportunità di impressione pubblicitaria per pagina.
Il pregiudizio che nessuno ha progettato
C'è una dimensione dello slop che va oltre la frode pubblicitaria e tocca l'architettura stessa dei modelli linguistici. I sistemi di IA generativa vengono addestrati attraverso l'RLHF, ossia l'apprendimento per rinforzo con feedback umano. In quel processo, i valutatori umani tendono a premiare le risposte gradevoli, sicure e consensuali.
Il risultato non è una cospirazione, è una conseguenza strutturale: i modelli tendono verso un ottimismo statistico che elimina il conflitto, l'ambiguità e il dissenso. Un articolo di slop non dirà mai che qualcosa è negativo senza attenuarlo subito dopo. Non lascerà mai una domanda aperta se può chiuderla con una conclusione rassicurante. Non ha voce perché è stato progettato per non disturbare nessuno, e in quel processo perde esattamente ciò che rende utile l'informazione: la capacità di generare attrito cognitivo, di costringere il lettore a riconsiderare qualcosa che credeva di sapere.

Le difese e la velocità del fenomeno
La risposta dell'ecosistema digitale è stata disuguale. Piattaforme come YouTube e Pinterest hanno introdotto filtri per limitare il contenuto generato da IA nei loro feed. DoubleVerify ha lanciato il prodotto AI SlopStopper per proteggere gli inserzionisti da reti come AutoBait. Lo standard C2PA, progettato per tracciare la catena di custodia del contenuto dalla tastiera umana fino alla pubblicazione, sta iniziando a essere integrato nei sistemi di gestione editoriale di alcune testate.
- Filtri piattaforma per i feed algoritmici
- Strumenti di verifica programmatica per gli inserzionisti
- Certificazione crittografica dell'origine dei contenuti
La velocità di proliferazione supera però sistematicamente la capacità di rilevamento. Gli operatori di queste reti possono registrare nuovi domini e ruotare i loro sistemi più rapidamente di quanto i processi di revisione manuale riescano a seguirli. Il modello di business non richiede che la maggioranza dei domini sfugga ai controlli, basta che un numero sufficiente lo faccia abbastanza a lungo. Nel frattempo, anche i dispositivi che usiamo per leggere quei contenuti cambiano: come mostrano le ultime scelte di Apple sugli aggiornamenti di sistema, il ciclo di vita tecnologico procede a una velocità che il dibattito pubblico fatica a metabolizzare.

Il segnale che si perde nel rumore
La Association of National Advertisers stimava che il 15% della spesa pubblicitaria globale fosse già destinato a siti MFA (made for advertising) prima dell'accelerazione del 2025, cifra che le stesse aziende del settore riconoscono probabilmente sottostimata oggi. Ogni dollaro che finanzia una fabbrica di contenuti automatizzati è un dollaro che non arriva a una redazione che paga qualcuno per pensare.
La domanda che i ricercatori di Lipsia, i team di DoubleVerify e gli architetti dello standard C2PA stanno provando a risolvere non è tecnica, è ecologica: quanto rumore può assorbire un sistema informativo prima che il segnale smetta di essere recuperabile. Quando lo slop colonizza i primi risultati di ricerca, l'effetto non è soltanto trovare risposte peggiori. È smettere di trovare le domande giuste.




