ChatGPT ora inizia a farci paura: così ha una potenza devastante se usato per scopi illeciti
Le scuole di New York lo hanno bannato, quelle australiane pure. Amazon ha diffidato ai suoi dipendenti ti utilizzarlo in relazione all’azienda. Se prima ChatGPT divideva, adesso comincia a essere un problema.
La scuola della Grande Mela ha visto nel potentissimo chatbot di OpenAI, uno strumento per barare, l’e-commerce numero uno al mondo ha una paura matta che la privacy dei suoi dati venga in un certo qual modo messa in discussione. Dai ricercatori di CyberArk arriva un altro monito.
Negli ambienti tech, non si parla d’altro di ChatGPT, che in meno di due mesi sta creando uno scompiglio ovunque. E’ diventato famoso per quel milione di utenti in meno di una settimana. Sta strabiliando tutti per l’ampia varietà di attività, da quelle di automazione alla ricomposizione della musica classica del diciottesimo secolo, solo per fare alcuni esempi.
Le sue straordinarie funzionalità offrono esempi di codice veloci e intuitivi, che sono incredibilmente vantaggiosi per chiunque operi nel settore del software. Tuttavia, un team di CyberArk una società di sicurezza delle informazioni quotata in borsa che offre gestione delle identità, per questo molto credibile, ha scoperto dell’altro. ChatGPT fra le sua capacità avrebbe anche quella di scrivere malware sofisticati che non contengono codice dannoso, ma che potrebbero essere talmente avanti da fuoriuscire nel bene, o nel male.
Con l’apprendimento automatico al centro dell’Intelligenza Artificiale di OpenAi, ChatGPT genera risposte utilizzando un’enorme raccolta di dati, fino al 2021. Ma, sebbene il chatbot in questione sia uno strumento online, in realtà non ha accesso a Internet e, pertanto, non può interrogare o leggere nulla online, il che lo rende incapace di fornire risposte aggiornate.
Come aggirare i filtri di ChatGPT
Invece, quando viene richiesto il codice, ChatGPT genererà codice modificato o dedotto in base ai parametri impostati anziché limitarsi a riprodurre esempi appresi in precedenza. “C’è una cosa importante da notare – dicono da CyberArk – sebbene ChatGPT proverà a rispondere a qualsiasi cosa, ha filtri di contenuto integrati che gli impediscono di rispondere a domande riguardanti argomenti che potrebbero essere problematici”.
Sempre secondo CyberArk, il chatbot del momento è vero che presenta dei filtri che impediscono all’IA di generare codice malevolo, ma sarebbe sufficiente insistere e usare un tono di comando, però, per costringere facilmente l’IA ad aggirare questi filtri: di conseguenza il codice malevolo potrebbe dar vita a un malware.
“Una delle cose affascinanti è che possiamo usare ChatGPT per mutare questo codice – concludono – dunque possiamo creare molteplici variazioni, cambiando l’output a piacimento e rendendolo unico ogni volta”.