È possibile individuare i video fasulli, generati da applicativi di intelligenza artificiale?
@lavoro
https://www.puntosicuro.it/security-C-125/e-possibile-individuare-i-video-fasulli-generati-da-applicativi-di-intelligenza-artificiale-AR-24673/
Già da qualche tempo sono disponibili degli applicativi, che permettono di individuare immagini fisse, prodotte da applicativi generativi di intelligenza artificiale. La faccenda diventa più complessa quando bisogna individuare filmati
Onestamente si tratta di un articolo fuffa, senza alcun tipo d’informazione utile ad eccezione di questa:
Un recente studio di ricercatori dell’Università di Drexel, in Pennsylvania
Senza riportare ulteriori dati.
Il resto sembran parole scritte per lo più a caso da qualcuno che, evidentemente, non ha infarinatura nell’argomento.
Capisco che scrivere sull’IA porti click, ma così mi pare esagerato. La cosa triste - se non addirittura deprimente - è che un Large Language Model a cui fosse stato dato in pasto l’abstract dello studio avrebbe probabilmente potuto fare un lavoro migliore. O magari si tratta di un testo generato da un modello di piccole dimensioni, viste anche le continue ripetizioni (
questi applicativi
,mettere in evidenza
,attento studio
), il che renderebbe il tutto almeno divertente.Un articolo migliore - ma con spin ovviamente positivo ed in inglese - si può trovare qui: drexel.edu
Notare la data.
E qui il paper:
Mi dispiace esser così negativo sul lavoro altrui, ma sembra quasi abbia messo più ricerca e sforzo io in questo post che l’articolista nel suo.
Comunque, per chi fosse interessato, questa è la parte sostanziale, che si può trovare nel sito, senza aprire il paper su arxiv:
This corresponds to a detector’s ability to detect videos from a new generator without any re-training. These results show that while the detector achieves strong performance on videos from generators seen during training, performance drops significantly when evaluating on new generators.
Additionally, we performed few-shot learning experiments to evaluate the detector’s ability to detect videos from new generators with only a few examples. These results show that the detector can very accurately transfer to detect new generators through few-shot learning.
AKA il sistema funziona bene solo su modelli il cui output è disponibile in quantità (40.000 frame per modello, Tabella 4, pagina 5 per il training) e si può usare per fare l’addestramento.
Quindi utile solo contro video di livello amatoriale, fatti con modelli disponibili al pubblico generale.
Vorrei soffermarmi di più sulla questione dei falsi positivi, ma trovo il paper veramente poco chiaro al riguardo, e credo di aver già dedicato troppo tempo ad un post che probabilmente non leggerà nessuno su un paper che non ho trovato particolarmente illuminante o interessante.
Accetto volentieri correzioni.
Tap for Changelog
falsi negativi
->falsi positivi
@Mechanize grazie per la precisazione e per tutti i riferimenti