Un ricercatore ha utilizzato con successo ChatGPT per creare complessi malware per computer con relativa facilità.
Questo è un argomento che alimenterà ulteriormente le legittime preoccupazioni che potrebbero esistere sull’intelligenza artificiale. Un ricercatore ha utilizzato ChatGPT, che di recente ha avuto un assaggio di GPT-4, per creare malware dannoso su Windows.
OpenAI, la società dietro ChatGPT, ha apparentemente introdotto alcune misure di sicurezza per impedire che il suo strumento venga utilizzato per tali scopi. Tuttavia, Aaron Mulgrew, il ricercatore Forcepoint che ha condotto questo esperimento, è stato in grado di aggirare questa protezione in modo relativamente semplice. Come puoi leggere tendenze digitaliA ChatGPT non è stato chiesto intenzionalmente di creare malware. Tuttavia, l’IA ha scritto righe di codice separatamente e poi le ha compilate per progettare programmi funzionanti.
Anche Aaron Mulgrew si identifica come un novizio in questa materia. Quindi suggerisce che una persona malintenzionata potrebbe facilmente utilizzare uno schema simile.
malware avanzato
Il malware creato dal ricercatore si maschera da screensaver che viene eseguito automaticamente su Windows. Il malware può estrarre dati potenzialmente sensibili dal tuo computer e spostarli nella cartella di Google Drive.
Aaron Mulgrew dimostra di essere stato persino in grado di migliorare il suo software, sempre con l’aiuto di ChatGPT per rendere il codice più efficiente. Al punto da poter sottoporre malware ai test di VirusTotal senza essere rilevati. Tutto ciò ha richiesto solo poche ore, mentre con i mezzi convenzionali potrebbero essere necessari diversi giorni per ottenere un risultato simile. Ovviamente, il ricercatore non ha pubblicizzato il suo lavoro. La sua esperienza mira a sensibilizzare gli attori del mercato affinché mostrino vigilanza.
Per seguirci, vi invitiamo a Scarica la nostra app per Android e iOS. Puoi leggere i nostri articoli e profili e guardare gli ultimi video su YouTube.