Cercetătorii spun că GPT 4 poate fi un pericol pentru atacurile cibernetice

Cercetătorii spun că au descoperit că modelele lingvistice, printre care și GPT-4 dezvoltat de OpenAI reprezintă un nou motiv de îngrijorare pentru securitatea cibernetică. Modelele pot fi utilizate pentru a simplifica și automatiza atacurile cibernetice, în special în exploatarea vulnerabilităților software.

Experții de la Universitatea din Illinois Urbana-Champaign au făcut un studiu care a arătat că GPT-4 poate fi eficient utilizat în ceea ce privește exploatarea vulnerabilităților software. În cadrul studiului, s-au testat mai multe modele lingvistice, inclusiv LLaMA-2 și Mistral.  Doar GPT-4 a reușit să exploreze găurile de securitate.

Potrivit rezultatelor studiului, GPT-4 ar fi să creat exploit-uri pentru vulnerabilitățile critice în 87% dintre cazuri, bazându-se pe descrierile acestora. În 7% din cazuri, modelul a exploatat vulnerabilitățile și când nu a avut acces la descrieri. Constatărrile indică potențialul periculos al inteligenței artificiale din punctul de vedere al securității cibernetice.

Capacitatea modelelor lingvistice de a exploata vulnerabilități software completează o serie de alte riscuri, precum perfecționarea campaniilor de phishing, știri false și dezinformarea pe rețelele sociale cu ajutorul deep fake-urilor.

Exit mobile version