- GPT-4 poate fi utilizat pt a exploata vulnerabilitățile software
- În 87% din cazuri GPT 4 a putut să creeze exploit-uri pentru vulnerabilitățile critice
- Cercetătorii spun că acest aspect poate fi folosit pentru atacurile cibernetice
Cercetătorii spun că au descoperit că modelele lingvistice, printre care și GPT-4 dezvoltat de OpenAI reprezintă un nou motiv de îngrijorare pentru securitatea cibernetică. Modelele pot fi utilizate pentru a simplifica și automatiza atacurile cibernetice, în special în exploatarea vulnerabilităților software.
Experții de la Universitatea din Illinois Urbana-Champaign au făcut un studiu care a arătat că GPT-4 poate fi eficient utilizat în ceea ce privește exploatarea vulnerabilităților software. În cadrul studiului, s-au testat mai multe modele lingvistice, inclusiv LLaMA-2 și Mistral. Doar GPT-4 a reușit să exploreze găurile de securitate.
Potrivit rezultatelor studiului, GPT-4 ar fi să creat exploit-uri pentru vulnerabilitățile critice în 87% dintre cazuri, bazându-se pe descrierile acestora. În 7% din cazuri, modelul a exploatat vulnerabilitățile și când nu a avut acces la descrieri. Constatărrile indică potențialul periculos al inteligenței artificiale din punctul de vedere al securității cibernetice.
Capacitatea modelelor lingvistice de a exploata vulnerabilități software completează o serie de alte riscuri, precum perfecționarea campaniilor de phishing, știri false și dezinformarea pe rețelele sociale cu ajutorul deep fake-urilor.