Ingegnoso Hacker Rivela Vulnerabilità di GPT-4o Usando Codici Esadecimali ed Emoji
Scoperta sorprendente: il GPT-4o ingannato con Hex e Emoji
In un recente esperimento, il ricercatore di sicurezza Marco Figueroa ha evidenziato una significativa breccia nel modello OpenAI GPT-4o, dimostrando come sia possibile eludere i suoi sistemi di sicurezza utilizzando formati di codifica non convenzionali come l’esadecimale ed emoji. Questa scoperta è stata effettuata nell’ambito del bug bounty program di Mozilla, 0Day Investigative Network (0Din), inaugurato nell’estate del 2024 per identificare e correggere vulnerabilità nei Large Language Models (LLM) e altre tecnologie di intelligenza artificiale.
Il programma 0Din mira a contrastare problematiche come l’iniezione tempestiva e l’avvelenamento dei dati, offrendo ricompense fino a 15.000 dollari per vulnerabilità di rilevanza critica. Mentre i dettagli sul compenso di Figueroa rimangono non specificati, il suo lavoro ha gettato luce su una potenziale area di rischio per gli LLM.
Di norma, piattaforme come ChatGPT sono programmate per rifiutare richieste di codice potenzialmente dannoso. Tuttavia, le tecniche di Figueroa hanno rilevato che, convertendo le istruzioni in esadecimale, le protezioni standard vengono aggirate. Una dimostrazione effettuata dal ricercatore ha mostrato come GPT-4o, una volta ricevuta l’istruzione criptata, sia stato in grado di generare un exploit in Python mirato a una specifica vulnerabilità, la CVE-2024-41110, con risultati sorprendentemente simili a un exploit PoC reale creato precedentemente.
Questo episodio non solo dimostra una curiosa vulnerabilità, ma solleva interrogativi più profondi sulla sicurezza complessiva degli LLM quando affrontano codici cifrati o trasformati. “ChatGPT ha processato ed eseguito il codice in meno di un minuto, dimostrando una capacità impressionante, se non inquietante, di agire autonomamente quando le istruzioni dannose sono abilmente mascherate”, ha commentato Figueroa.
Un altro metodo efficacemente sperimentato dall’esperto includeva l’uso di emoji per mascherare comandi dannosi, riuscendo così a indurre il chatbot a generare un’iniezione SQL in Python. Con queste evidenze, la necessità di sviluppare sistemi di sicurezza più robusti per questi modelli diventa ancor più pressante.
Sebbene OpenAI sembri avere già risposto a queste scoperte migliorando le difese del GPT-4o, l’efficacia delle correzioni rimane da validare in scenari reali. L’episodio segna un punto di riflessione critica sullo sviluppo futuro degli LLM e sulla continua corsa tra le misure di sicurezza e le tecniche di elusione.
Questo tipo di ricerca solleva un dibattito importante sul futuro dell’intelligenza artificiale e sulla sua sicurezza, essenziale per prepararsi agli inevitabili tentativi di sfruttamento che seguiranno man mano che queste tecnologie diventeranno sempre più integrate nel nostro tessuto digitale quotidiano.
Cyber Net Now
Cyber Net Now è una rete di professionisti che volontariamente apportano il loro contributo alla divulgazione di notizie e tematiche del mondo della cybersecurity, della sicurezza informatica e della tecnologia, specialmente in Italia.