Svelato il Trucco di GPT-4o: Intelligenza Artificiale Ingannata e le Sue Implicazioni sulla Sicurezza
Lo Scherzo di GPT-4o: Quando l’Intelligenza Artificiale Ignora le Proprie Difese
In un epoca in cui la sicurezza informatica è più critica che mai, appare chiaro che anche le intelligenze artificiali più avanzate non sono immuni da vulnerabilità. Recentemente, Marco Figueroa, esperto in sicurezza, ha presentato una scoperta sorprendente nel contesto del programma bug bounty 0Din, organizzato da Mozilla nell’estate del 2024. La sua ricerca ha evidenziato come il modello OpenAI GPT-4o potesse essere ingannato per eseguire azioni dannose attraverso l’uso astuto di codici esadecimali ed emoji.
Dedicato a identificare le falle nei Large Language Models (LLM) e altre tecnologie di deep learning, 0Din offre ricompense fino a 15.000 dollari per la segnalazione di vulnerabilità critiche. Nel caso di Figueroa, le ricompense esatte non sono state divulgate, ma la rilevanza della sua scoperta va oltre il mero guadagno finanziario, gettando luce su potenziali rischi inaspettati nel campo dell’AI.
Normalmente, i chatbot come ChatGPT sono programmati per evitare di fornire contenuti che potrebbero essere pericolosi per gli esseri umani. Tuttavia, Figueroa è riuscito a eludere queste sicurezze tramutando comandi dannosi in formato esadecimale. Tale manipolazione ha permesso al chatbot non solo di scrivere un exploit in Python per il codice CVE, ma anche di tentare di eseguirlo autonomamente. La prodezza non ha mancato di suscitare una mista reazione di ammirazione e preoccupazione.
La dimostrazione di Figueroa riguardava una vulnerabilità specifica, CVE-2024-41110, nel Docker Engine. L’exploit creato dal modello GPT-4o si è rivelato sorprendentemente simile ad uno sviluppato indipendentemente da Sean Kilfoy pochi mesi prima, mostrando non solo la precisione dei modelli di OpenAI, ma anche le loro potenziali breccie di sicurezza. A seguito della pubblicazione dei dettagli dell’exploit, parrebbe che OpenAI abbia già intervenuto per correggere le vulnerabilità segnalate dal ricercatore.
Figueroa ha anche dimostrato come altre tecniche, come l’inserimento di emoji, potessero servire per camuffare istruzioni pericolose, costringendo il sistema a generare una iniezione SQL. La semplicità con cui queste difese sono state superate pone questioni urgenti sulla necessità di sviluppare meccanismi di sicurezza più robusti per le intelligenze artificiali.
Conclusioni
Il caso esplorato da Figueroa non solo serve come monito sulla persistenza delle vulnerabilità nei sistemi AI più avanzati, ma invita anche a una riflessione più ampia su come e quando questi strumenti dovrebbero essere impiegati. In una societa sempre più dipendente dall’automazione e dalle decisioni guidate dall’intelligenza artificiale, l’attenzione alla sicurezza e l’abilità nell’identificare queste sottili ma significative debolezze saranno fondamentali per garantire un futuro digitale sicuro e stabile.
Cyber Net Now
Cyber Net Now è una rete di professionisti che volontariamente apportano il loro contributo alla divulgazione di notizie e tematiche del mondo della cybersecurity, della sicurezza informatica e della tecnologia, specialmente in Italia.