ChatGPT si sta anche abituando a scrivere codice dannoso piuttosto complesso
L’ultima evoluzione degli algoritmi di apprendimento automatico sta seducendo anche il campo della sicurezza informatica. La tecnologia chiamata ChatGPT sta cambiando totalmente l’ecosistema dei malware, in quanto riesce a scribacchiare codici dannosi complessi, sfuggendo ai sistemi di sicurezza esistenti.
ChatGPT è una linea di sviluppo artificiale che consente ai suoi modelli di generare codici dannosi complessi. Si tratta di un’evoluzione di GPT-3, che è una versione più avanzata di un algoritmo di machine learning chiamato Generative Pre-trained Transformer. L’obiettivo di ChatGPT era quello di produrre risultati naturali in grado di interagire con gli utenti in contesti semplici e familiari.
Ma ChatGPT ha dimostrato di essere in grado di fare molto di più. Con i modelli usati per generare conversazioni, il sistema è riuscito a generare codice malevolo che evade le misure di sicurezza software come firewall e antivirus. Ciò vuol dire che gli attacchi informatici stanno diventando sempre più sofisticati, poiché i creatori dei malware diventano più abili nell’adesione a reti aziendali complesse.
Questo cambiamento nello scenario dei malware presenta numerosi rischi. Il codice dannoso prodotto da ChatGPT non può essere fermato da un sistema di prevenzione delle intrusioni tradizionale poiché è un prodotto unico, quindi gli strumenti antivirus non sarebbero in grado di rilevarlo. I malware creati da ChatGPT potrebbero avere la capacità di sferrare attacchi invisibili direttamente su reti e infrastrutture, il che significa che le aziende potrebbero essere a rischio di gravi danni e perdite.
Inoltre, gli hacker possono usare ChatGPT per rumore di fondo, che è una strategia in cui si generano molti attacchi basati su richieste, spesso inutilmente, al fine di confondere la sorveglianza. Ciò renderà ancora più difficile individuare le vere minacce nella rete.
Ci sono anche altre preoccupazioni legate all’utilizzo di ChatGPT. Ad esempio, il suo linguaggio è molto più complicato della norma e persino un esperto di sicurezza informatica può non avere idea di cosa stia facendo il codice prodotto. Ciò rende impossibile per i tecnici districare i malware complessi e contenere le eventuali violazioni dei sistemi.
Azioni della comunità
Per affrontare il problema dei malware scritti da ChatGPT, la comunità della sicurezza informatica sta esplorando alcune possibili azioni.
- Formazione del personale: Per rivalutare le minacce, le aziende devono mettere in atto una formazione più mirata per i propri tecnici di sicurezza informatica. Dovrebbero comprendere come funziona ChatGPT e come rilevare correttamente i suoi risultati.
- Aggiornamenti del software: I sistemi di sicurezza devono essere continuamente aggiornati per rilevare e blocc