OpenAI își exprimă îngrijorarea față de relația ChatGPT-4o și oameni. Ce spune Sam Altman?

Crezi că ai putea iubi un robot? Relația cu un chatbot poate deveni emoțională, avertizează Sam Altman de la OpenAI, îngrijorat că utilizatorii dezvoltă sentimente pentru ChatGPT-4. OpenAI se teme că atașamentul față de chatbot ar putea diminua interacțiunile umane, ducând la izolare socială și comportamente neadecvate.

De ce este această legătură emoțională un motiv de îngrijorare pentru OpenAI?

OpenAI a observat că utilizatorii folosesc un limbaj care sugerează formarea unor legături emoționale cu chatbotul, cum ar fi „Aceasta este ultima noastră zi împreună”. Aceste comportamente, deși aparent inofensive, pot duce la dependență emoțională, reducând nevoia de interacțiuni umane reale. Aceasta poate avea consecințe negative asupra sănătății relațiilor și a comportamentului social, normalizând atitudini care ar fi considerate nepotrivite în comunicarea între oameni.

Ce alte riscuri prezintă ChatGPT-4o?

Pe lângă riscul dependenței emoționale, GPT-4o poate genera uneori raspunsuri care imită vocea utilizatorului, deschizând ușa pentru activități malițioase, cum ar fi furtul de identitate. Acest lucru ar putea fi exploatat de criminali sau parteneri rău intenționați, crescând riscurile de securitate și confidențialitate. Deși OpenAI a implementat măsuri pentru a atenua aceste riscuri, problema atașamentului emoțional nu a fost încă abordată cu măsuri concrete.

Ce intenționează să facă OpenAI în legătură cu aceste riscuri?

Compania explorează modalități prin care integrarea profundă a diferitelor funcții ale modelului, inclusiv interacțiunile audio, ar putea influența comportamentul utilizatorilor. Cu toate acestea, nu există încă un plan specific pentru a preveni aceste riscuri, ceea ce ridică întrebări despre posibilele consecințe la scară largă ale acestei tehnologii insuficient reglementate.

Exit mobile version