latest

La “squadra rossa” di Facebook promuove i propri programmi di intelligenza artificiale

la-“squadra-rossa”-di-facebook-promuove-i-propri-programmi-di-intelligenza-artificiale

Instagram incoraggia i suoi miliardi di utenti ad aggiungere filtri alle loro foto per renderle più condivisibili. A febbraio 2019, alcuni utenti di Instagram hanno iniziato a modificare le loro foto pensando a un pubblico diverso: i filtri porno automatizzati di Facebook.

Facebook dipende fortemente dalla moderazione alimentata dall’intelligenza artificiale e afferma che la tecnologia è particolarmente brava a individuare contenuti espliciti. Ma alcuni utenti hanno scoperto di poter passare oltre i filtri di Instagram sovrapponendo modelli come griglie o punti su display di skin che infrangono le regole. Ciò significava più lavoro per i revisori dei contenuti umani di Facebook.

Gli ingegneri di AI di Facebook hanno risposto addestrando i loro sistema per riconoscere le immagini vietate con tali modelli, ma la correzione è stata di breve durata. Gli utenti “hanno iniziato ad adattarsi andando con schemi diversi”, afferma Manohar Paluri, che guida il lavoro sulla visione del computer su Facebook. Il suo team ha infine risolto il problema dell’evasione dalla nudità dell’IA aggiungendo un altro sistema di apprendimento automatico che verifica la presenza di modelli come griglie sulle foto e cerca di modificarle emulando i pixel nelle vicinanze. Il processo non ricrea perfettamente l’originale, ma consente al classificatore porno di fare il suo lavoro senza essere inciampato.

Quell’incidente con il gatto e il mouse ha aiutato a suggerire a Facebook alcuni mesi dopo per creare un “team rosso AI” per comprendere meglio le vulnerabilità e i punti ciechi dei suoi sistemi di intelligenza artificiale. Altre grandi aziende e organizzazioni, tra cui Microsoft e appaltatori governativi, stanno assemblando squadre simili.

Tali società hanno speso molto negli ultimi anni per distribuire sistemi di intelligenza artificiale per attività quali la comprensione del contenuto di immagini o testo. Ora alcuni dei primi utenti si chiedono come si possano ingannare quei sistemi e come proteggerli. “Siamo passati da” Huh? Questa roba è utile? “Per ora è fondamentale per la produzione”, afferma Mike Schroepfer, Chief Technology Officer di Facebook. “’Se il nostro sistema automatizzato fallisce, o può essere sovvertito su larga scala, questo è un grosso problema.”

Il lavoro di protezione dei sistemi di intelligenza artificiale ha somiglianze con il convenzionale sicurezza del computer. La squadra rossa dell’IA di Facebook prende il nome da un termine per esercizi in cui gli hacker che lavorano per un’organizzazione sondano le sue difese giocando con il ruolo di attaccanti. Sanno che qualsiasi correzione implementata può essere messa da parte mentre i loro avversari escogitano nuovi trucchi e attacchi.

In altri modi, tuttavia, mitigare gli attacchi ai sistemi di intelligenza artificiale è molto diverso impedire gli hack convenzionali. Le vulnerabilità di cui i difensori si preoccupano hanno meno probabilità di essere bug specifici, risolvibili e hanno maggiori probabilità di riflettere i limiti integrati della tecnologia di intelligenza artificiale di oggi. “È diverso dalla sicurezza informatica in quanto queste cose sono inerenti”, afferma Mikel Rodriguez, un ricercatore che lavora sulle vulnerabilità dell’IA presso MITER Corporation, un’organizzazione no profit che gestisce programmi di ricerca federali. “Potresti scrivere un modello di apprendimento automatico perfettamente sicuro, ma sarebbe comunque vulnerabile.”

Il crescente investimento nella sicurezza dell’IA rispecchia come Facebook , Google , e anche altri stanno pensando di più le conseguenze etiche della distribuzione dell’IA . Entrambi i problemi hanno le radici nel fatto che, nonostante la sua utilità, la tecnologia AI esistente è stretta e non flessibile , e può adattarsi a circostanze impreviste nel modo in cui le persone possono.

Una biblioteca crescente di apprendimento automatico articoli di ricerca documentano trucchi come l’alterazione di pochi pixel in una foto per rendere il software AI allucinato e rilevare oggetti che non sono presenti . Uno studio ha dimostrato che un servizio di riconoscimento delle immagini di Google potrebbe essere ingannato classificando un fucile come elicottero ; un altro studio oggetti stampati in 3D con una forma sfaccettata che li ha resi invisibili al software lidar di un prototipo auto a guida autonoma della cinese Baidu. Altri attacchi includono “avvelenamento dei dati”, in cui un avversario altera i dati utilizzati per addestrare un algoritmo di apprendimento automatico, per comprometterne le prestazioni.

MITER sta lavorando con clienti governativi in ​​aree come come trasporto e sicurezza nazionale su come ridurre al minimo tali vulnerabilità. Rodriguez rifiuta di condividere i dettagli, ma afferma che proprio come su Facebook, alcune agenzie governative statunitensi vogliono sapere cosa potrebbe andare storto con l’IA che stanno costruendo in funzioni critiche. I progetti del suo team hanno incluso la dimostrazione che era possibile estrarre i volti usati per addestrare un algoritmo di riconoscimento facciale e ingannare il software di apprendimento automatico installato su velivoli che volano sopra la testa per interpretare l’ambiente circostante. Il Dipartimento della Difesa prevede di rendere l’IA una (sempre più centrale) dell’esercito americano , ***********************, dall’individuazione di minacce sul campo di battaglia all’assistenza sanitaria e all’amministrazione di back-office.

Silhouette of a human and a robot playing cards

Il team rosso AI di Facebook è guidato da Cristian Canton, un esperto di visione artificiale che è entrato a far parte dell’azienda in 2017 e ha eseguito un gruppo che lavora ai filtri di moderazione delle immagini. Era orgoglioso del lavoro del suo team sui sistemi di intelligenza artificiale per rilevare contenuti vietati come la pornografia infantile e la violenza, ma iniziò a chiedersi quanto fossero davvero robusti.

Nel 2018, Canton ha organizzato un “rischio-a-thon” in cui persone di tutta Facebook hanno trascorso tre giorni in competizione per trovare il modo più sorprendente di viaggiare su quei sistemi. Alcuni team hanno riscontrato punti deboli che Canton afferma di avergli convinto che la compagnia aveva bisogno di rendere più robusti i suoi sistemi di intelligenza artificiale. filtri di incitamento all’odio. Un secondo ha scoperto l’attacco usato all’inizio 2017 per diffondere porno su Instagram, ma non era considerata una priorità immediata da risolvere al momento. “Prevediamo il futuro”, afferma Canton. “Questo mi ha ispirato che questo dovrebbe essere il mio lavoro quotidiano.”

L’anno scorso, il team di Canton ha sondato i sistemi di moderazione di Facebook. Ha anche iniziato a lavorare con un altro gruppo di ricerca all’interno dell’azienda che ha creato una versione simulata di Facebook chiamata WW che può essere utilizzata come parco giochi virtuale per studiare in modo sicuro comportamenti scorretti. Un progetto sta esaminando la circolazione di posti che offrono beni vietati sui social network, come le droghe ricreative.

Il progetto più pesante della squadra rossa mira a capire meglio deepfakes , immagini generate usando l’intelligenza artificiale che sembra essere stata catturata con una macchina fotografica. I risultati mostrano che prevenire l’inganno dell’intelligenza artificiale non è facile.

La tecnologia Deepfake sta diventando di facile accesso ed è stato utilizzato per molestie mirate . Quando il gruppo di Canton si è formato l’anno scorso, i ricercatori avevano iniziato a pubblicare idee su come filtrare automaticamente i deepfake. Ma ha trovato alcuni risultati sospetti. “Non c’era modo di misurare i progressi”, afferma. “Alcune persone riferivano 69 precisione percentuale, e noi eravamo come ‘Questo non è vero.’ ”

Lanciato il team rosso AI di Facebook un progetto chiamato Deepfakes Detection Challenge per stimolare i progressi nel rilevamento di video generati dall’IA. Ha pagato 4, (***********************************************************************) attori per recitare in video che presentano una varietà di sessi, tonalità della pelle ed età. Dopo che gli ingegneri di Facebook hanno trasformato alcune clip in deepfakes scambiando i volti delle persone, gli sviluppatori sono stati sfidati a creare software in grado di individuare il simulacra.

I risultati, rilasciato il mese scorso , mostra che l’algoritmo migliore potrebbe individuare i deepfake non in Solo la raccolta di Facebook 22 percento delle volte. Ciò suggerisce che probabilmente Facebook non sarà in grado di rilevare presto in modo affidabile i deepfake. “È un problema davvero difficile e non risolto”, afferma Canton.

Il team di Canton sta ora esaminando la solidità dei rilevatori di disinformazione di Facebook e dei classificatori di annunci politici. “Stiamo cercando di pensare in modo molto ampio ai problemi urgenti delle prossime elezioni”, afferma.

La maggior parte delle aziende che usano l’IA nelle loro attività non devono preoccuparsi di Facebook fa per essere accusato di distorcere le elezioni presidenziali. Ma Ram Shankar Siva Kumar, che lavora sulla sicurezza dell’IA in Microsoft, afferma che dovrebbero comunque preoccuparsi delle persone che fanno casino con i loro modelli di intelligenza artificiale. Ha contribuito a un articolo pubblicato a marzo che ha trovato 12 di 25 le società interrogate non si sono assicurate Sistemi di intelligenza artificiale a tutti. “La maggior parte degli analisti della sicurezza si sta ancora concentrando sull’apprendimento automatico”, afferma. “Phishing e malware sulla confezione sono ancora la cosa principale.”

Lo scorso autunno Microsoft ha rilasciato la documentazione sulla sicurezza dell’IA sviluppata in collaborazione con Harvard che l’azienda utilizza internamente per guidare i propri team di sicurezza. Discute minacce come il “furto di modelli”, in cui un utente malintenzionato invia query ripetute a un servizio di intelligenza artificiale e utilizza le risposte per creare una copia che si comporta in modo simile. Quella copia “rubata” può essere messa direttamente al lavoro o utilizzata per scoprire difetti che consentono agli aggressori di manipolare il servizio originale a pagamento.

Battista Biggio, professore all’Università di Cagliari, che pubblica studi su come ingannare i sistemi di apprendimento automatico da oltre un decennio, afferma che l’industria tecnologica deve iniziare ad automatizzare i controlli di sicurezza dell’IA.

Le aziende usano batterie di preprogrammate test per verificare la presenza di bug nel software convenzionale prima che venga distribuito. Biggio afferma che migliorare la sicurezza dei sistemi di intelligenza artificiale in uso richiederà strumenti simili, basandosi potenzialmente sugli attacchi che lui e altri hanno dimostrato nella ricerca accademica.

Ciò potrebbe contribuire a colmare il divario che Kumar evidenzia il numero di algoritmi di apprendimento automatico distribuiti e la forza lavoro di persone informate sulle loro potenziali vulnerabilità. Tuttavia, Biggio afferma che l’intelligenza biologica sarà ancora necessaria, poiché gli avversari continueranno a inventare nuovi trucchi. “L’essere umano nel loop sarà ancora un componente importante”, dice.


Altre fantastiche storie CABLATE

Leave a Reply

Your email address will not be published. Required fields are marked *