OpenAI va permite în curând conținutul „erotic” pentru utilizatorii ChatGPT care își verifică vârsta pe platformă. Într-o postare pe X (fostul Twitter) de marți, CEO-ul OpenAI, Sam Altman, a declarat că firma va adăuga suport pentru conversații mature odată cu lansarea sistemului de verificare a vârstei în luna decembrie.
„Pe măsură ce extindem mai mult sistemul de verificare a vârstei și ca parte a principiului nostru de a ‘trata utilizatorii adulți ca pe niște adulți’, vom permite și mai multe lucruri, cum ar fi erotismul pentru adulții verificați”, a scris Altman, potrivit The Verge. La începutul acestei luni, OpenAI a sugerat deja că va permite dezvoltatorilor să creeze aplicații ChatGPT „pentru adulți” după ce vor fi implementate verificarea adecvată a vârstei și controalele necesare.
OpenAI nu este singura companie care explorează zona erotismului; compania xAI a lui Elon Musk a lansat anterior în aplicația Grok însoțitori AI cocheți, care apar sub formă de modele anime 3D.
Pe lângă adăugarea conținutului „erotic”, OpenAI intenționează și să lanseze o nouă versiune a ChatGPT care „se comportă mai mult în stilul apreciat la modelul 4o.” La doar o zi după ce GPT-5 a devenit modelul implicit care alimentează ChatGPT, OpenAI a readus GPT-4o ca opțiune, după ce utilizatorii s-au plâns că noul model este mai puțin empatic și personal.
Ce măsuri ia OpenAI pentru protejarea sănătății mintale a utilizatorilor ChatGPT
Altman a spus că OpenAI a făcut ChatGPT „destul de restrictiv pentru a fi precaut în privința problemelor de sănătate mintală”, adăugând că firma a realizat că această schimbare a făcut chatbotul „mai puțin util și plăcut pentru mulți utilizatori care nu aveau probleme de sănătate mintală.” OpenAI a lansat între timp instrumente pentru a „detecta mai bine” când un utilizator se află în stare de suferință mintală.
OpenAI a anunțat, de asemenea, formarea unui consiliu pentru „bunăstare și inteligență artificială”, care va contribui la modelarea răspunsului companiei în fața scenariilor „complexe sau sensibile.” Consiliul este format din opt cercetători și experți care studiază impactul tehnologiei și al AI asupra sănătății mintale. Însă, după cum remarcă Ars Technica, consiliul nu include experți în prevenirea sinuciderii – mulți dintre aceștia solicitând recent ca OpenAI să introducă mai multe măsuri de protecție pentru utilizatorii cu gânduri suicidare.
„Acum că am reușit să reducem riscurile serioase privind sănătatea mintală și avem noi instrumente, vom putea relaxa în siguranță restricțiile în cele mai multe cazuri”, a scris Altman în postarea sa de pe X.