I ricercatori dell’Università di Chicago hanno utilizzato due strumenti per svelare le vulnerabilità di alcuni modelli di intelligenza artificiale (IA) sviluppati da OpenAI. Ciò che sembra un’operazione di disturbo, in realtà costituisce un modo per sottolineare come l’IA sia suscettibile ad esser ingannata. Come riportato da La Repubblica, gli strumenti sviluppati dai ricercatori mirano a mascherare lo stile delle opere d’arte e testare la resistenza di alcuni modelli. In questo modo, si spera di comprendere meglio come l’AI apprende dal mondo che la circonda.
Quali modelli di intelligenza artificiale sono stati testati con questi strumenti?
I ricercatori hanno specificato quali modelli sono stati testati con questi strumenti: un modello GPT-3 di OpenAI e un modello generativo nonadditivo di Google. Dati gli esperimenti, i ricercatori hanno scoperto alcune vulnerabilità nell’IA degli algoritmi di apprendimento automatico quando esposti a false informazioni o manipolazioni. Di conseguenza, i ricercatori ritengono che sebbene l’AI sia in grado di acquisire conoscenza dal suo ambiente, la sua precisione e l’accuratezza dei risultati non può essere soggetta a manipolazioni o false informazioni e può renderla vulnerabile ad essere ingannata.
Che tipo di opere d’arte sono stati mascherati per testare la resistenza AI?
I ricercatori dell’Università di Chicago si sono spinti oltre nel loro tentativo di esplorare come l’intelligenza artificiale possa essere ingannata. Per testare la resistenza AI, hanno creato due strumenti per mascherare lo stile delle opere d’arte ed esplorare come l’AI react agli oggetti manipolati. La manipolazione dell’ artifacts visivi si basa sull’applicazione di vari filtri sull’immagine digitale originale, e consente agli esperti di valutare la capacità degli algoritmi di AI di comprendere cosa sono stati modificati. Gli esperti ritengono che questo tipo di test può rivelare che la potenza dell’AI è in grado di ampliare la possibilità di evasione da parte di specifici attacchi. Ad esempio, un modello di intelligenza artificiale potrebbe essere ingannato da un’immagine manipolata, ignorando r.me della manipolazione o persino imparando da esso. Gli esperti sperano che questo possa aiutare a sviluppare sistemi di AI più resistenti ed efficaci.
Come si spera che l’intelligenza artificiale apprenda dal mondo che lo circonda?
Gli esperti di Chicago hanno posto l’accento sull’importanza di esplorare con maggiore approfondimento l’IA per capire meglio come sia suscettibile ad essere ingannata. Per scoprire questo, hanno progettato gli strumenti per mascherare lo stile delle opere d’arte e sfidare i modelli di IA con loro. Lo scopo è di poter misurare la resistenza degli algoritmi al cambiamento e al confronto con nuovi metodi. Si spera che l’AI possa trarre insegnamenti dai risultati dei test, contribuendo così alla migliore comprensione del suo ambiente. Oltre a questo, ci si aspetta anche che i risultati possano contribuire allo studio delle caratteristiche dell’IA e all’illustrazione dei suoi limiti.