OPAD: un nuovo attacco avverso contro l’intelligenza artificiale

I ricercatori hanno scoperto un nuovo attacco avverso che può ingannare le tecnologie AI. Questo nuovo attacco, OPtical ADversarial Attack (OPAD), si basa su tre oggetti principali: una telecamera, un proiettore a basso costo e un computer, utilizzati per eseguire l’attacco.

Come funziona l’attacco

L’OPAD si basa su un sistema proiettore-fotocamera a basso costo in cui i ricercatori hanno proiettato modelli calcolati per modificare l’aspetto degli oggetti 3D.

  • Per eseguire l’attacco, i ricercatori hanno modificato gli oggetti già esistenti visti dall’IA. Ad esempio, hanno modificato le immagini del basket e le hanno presentate come qualcos’altro.
  • È stato eseguito proiettando sulle immagini alcuni modelli appositamente calcolati.
  • OPAD non è iterativo e quindi può mirare agli oggetti 3D reali in un singolo scatto. Inoltre, questo attacco può lanciare anche attacchi non mirati, mirati, black-box e white-box.
  • È forse il primo metodo che modella distintamente l’ambiente e la strumentazione. Quindi, la funzione di perdita contraddittoria nell’ottimizzazione OPAD è chiaramente visibile agli utenti.

Ulteriori informazioni

Uno dei fattori critici di un tale attacco è che non è richiesto alcun accesso fisico per gli oggetti. Gli attacchi OPAD possono trasformare qualsiasi risultato digitale noto in oggetti 3D reali.

  • La fattibilità di questo attacco è limitata solo al materiale superficiale dell’oggetto insieme alla saturazione del colore dell’oggetto.
  • OPAD può essere utilizzato per ingannare le auto a guida autonoma che potrebbero diventare la causa di incidenti o scherzi intenzionali. Ad esempio, può rappresentare un segnale di STOP come segnale di limite di velocità. Inoltre, le telecamere di sicurezza con intelligenza artificiale possono essere ingannate, con gravi conseguenze.
  • Inoltre, la dimostrazione di successo di OPAD mostra la possibilità di utilizzare un sistema ottico per modificare volti o compiti di sorveglianza.

Conclusioni

OPAD ha dimostrato che le organizzazioni che sviluppano tecnologie di intelligenza artificiale dovrebbero stare attente ai potenziali problemi di sicurezza all’interno dei modelli di intelligenza artificiale. Inoltre, dovrebbero investire di più nella sicurezza e nei test della tecnologia AI prima dell’uso nel mondo reale.