• GPT-4 poate fi utilizat pt a exploata vulnerabilitățile software
  • În 87% din cazuri GPT 4 a putut să creeze exploit-uri pentru vulnerabilitățile critice
  • Cercetătorii spun că acest aspect poate fi folosit pentru atacurile cibernetice

Cercetătorii spun că au descoperit că modelele lingvistice, printre care și GPT-4 dezvoltat de OpenAI reprezintă un nou motiv de îngrijorare pentru securitatea cibernetică. Modelele pot fi utilizate pentru a simplifica și automatiza atacurile cibernetice, în special în exploatarea vulnerabilităților software.

Experții de la Universitatea din Illinois Urbana-Champaign au făcut un studiu care a arătat că GPT-4 poate fi eficient utilizat în ceea ce privește exploatarea vulnerabilităților software. În cadrul studiului, s-au testat mai multe modele lingvistice, inclusiv LLaMA-2 și Mistral.  Doar GPT-4 a reușit să exploreze găurile de securitate.

Potrivit rezultatelor studiului, GPT-4 ar fi să creat exploit-uri pentru vulnerabilitățile critice în 87% dintre cazuri, bazându-se pe descrierile acestora. În 7% din cazuri, modelul a exploatat vulnerabilitățile și când nu a avut acces la descrieri. Constatărrile indică potențialul periculos al inteligenței artificiale din punctul de vedere al securității cibernetice.

Recomandări

ELEVII GRECI ÎNVAȚĂ CU CHATGPT
DAI CU ZARUL CUNOAȘTERII
CODAȘII EUROPEI
VIITORUL COPIILOR ÎN RO ÎNCEPE MAI GREU
GAMING CONTRA ABANDONULUI ȘCOLAR
ȘCOALA LA PACHET

Capacitatea modelelor lingvistice de a exploata vulnerabilități software completează o serie de alte riscuri, precum perfecționarea campaniilor de phishing, știri false și dezinformarea pe rețelele sociale cu ajutorul deep fake-urilor.