Adobe

Gli esperti di tutto il mondo sono sempre più preoccupati per i nuovi strumenti di intelligenza artificiale, infatti quest’ultimi rendono più semplice che mai la modifica di immagini e video, e la cosa diventa più preoccupante con il potere dei social media di condividere contenuti scioccanti in modo rapido e senza controlli fattuali.

Alcuni di questi strumenti sono stati sviluppati da Adobe ma l’azienda sta anche lavorando ad una sorta di antidoto. E’ in corso di sviluppo un sistema per individuare automaticamente le immagini modificate. L’ultimo lavoro dell’azienda, dimostra come le analisi forensi digitali eseguite dagli esseri umani possano essere automatizzate dalle macchine in molto meno tempo.

Adobe collabora con le forze dell’ordine

Il documento di ricerca non rappresenta una svolta nel campo e non è ancora disponibile come prodotto commerciale, ma è intrigante vedere Adobe interessarsi a questa linea di lavoro. L’azienda punta alla collaborazione con le forze dell’ordine, utilizzando la scientifica digitale per aiutare a trovare i bambini scomparsi, ad esempio.

Tecniche di modifica

Il nuovo documento di ricerca mostra come l’apprendimento automatico può essere utilizzato per identificare tre tipi comuni di manipolazione delle immagini: splicing, in cui due parti di immagini diverse sono combinate; clonazione, dove gli oggetti all’interno di un’immagine sono copiati e incollati; e rimozione, quando un oggetto è completamente modificato.

Per individuare questo tipo di manomissione, gli esperti di forensics digitali in genere cercano indizi negli strati nascosti dell’immagine. Quando vengono apportate modifiche di questo tipo si lasciano degli artefatti digitali, come incongruenze nelle variazioni casuali di colore e luminosità create dai sensori di immagine (noto anche come rumore dell’immagine). Quando si uniscono due immagini diverse, ad esempio, o si copia e incolla un oggetto da una parte di un’immagine a un’altra, questo rumore di fondo non corrisponde. Come una macchia su un muro coperto con un colore di pittura leggermente diverso.

Una nuova generazione di fake news

Come con molti altri sistemi di apprendimento automatico, ad Adobe è stato insegnato l’uso di un ampio set di dati di immagini modificate. Da questo, ha imparato a individuare gli schemi comuni che indicano la manomissione. Ha ottenuto punteggi più alti in alcuni test rispetto a sistemi simili costruiti da altri team. Tuttavia, la ricerca non ha un’applicazione diretta per individuare deepfakes, una nuova generazione di video modificati creati utilizzando l’intelligenza artificiale.

Il vantaggio di questi nuovi approcci ML è che hanno il potenziale per scoprire artefatti che non sono ovvi e non conosciuti in precedenza. Lo svantaggio di questi approcci è che sono buoni solo quanto i dati di addestramento inseriti nelle reti, almeno per ora, hanno meno probabilità di apprendere manufatti di livello superiore come incongruenze nella geometria delle ombre e dei riflessi.

Questi avvertimenti a parte, è bello vedere ulteriori ricerche che possono aiutarci a individuare i falsi digitali. Se quelli che suonano l’allarme hanno ragione e siamo diretti verso una sorta di mondo post-verità, avremo bisogno di tutti gli strumenti che possiamo ottenere per distinguere i fatti dalla finzione. L’IA può ferire, ma può anche aiutare.