AI
Cina avvia stretta sull’“AI slop” per controllare contenuti generati

Il governo della Repubblica Popolare Cinese sta attuando la seconda fase della campagna «Clean Up the Internet: Rectifying the Abuse of AI Technology», con l’obiettivo di contrastare quello che viene definito “AI slop” ossia contenuti generati dall’intelligenza artificiale di bassa qualità, fuorvianti o fraudolenti.
La stretta riguarda in particolare la diffusione di notizie false generate da AI in contesti di disastri naturali, immagini o video manipolati, impersonificazione digitale, abusi contro minori e traffico web artificiale. Le autorità hanno già preso provvedimenti contro persone che hanno diffuso immagini AI-create raffiguranti una bambina tra macerie dopo un terremoto o la simulazione del rapimento di una figlia di 28 anni.
Tra le misure previste ci sono l’obbligo per le piattaforme di etichettare chiaramente i contenuti creati da AI e il rafforzamento dei sistemi di monitoraggio per rilevare e cancellare tempestivamente materiale manipolativo o illecito. L’iniziativa sposta la responsabilità dalle singole persone agli operatori digitali e agli emettitori di modelli generativi.
Questa svolta normativa riflette una tendenza globale alla regolamentazione dell’intelligenza artificiale, ma con un’impronta più severa e centralizzata rispetto ad altri paesi. Per le imprese e gli sviluppatori operanti in Cina, ciò significa un ambiente dove l’innovazione tecnologica deve essere bilanciata da stringenti controlli sulla qualità e sulla veridicità dei contenuti generati.












