ChatGPT GPT-5.3 Instant більше не буде просити людей заспокоїтися.


Зробіть глибокий вдих і не застрягайте в негативних думках. Ви не збожеволіли, просто переживаєте складний період. І, відверто кажучи, це абсолютно нормально.

Якщо ви відчули миттєву реакцію, читаючи ці рядки, можливо, ви також втомилися від того, що ChatGPT спілкується з вами так, ніби ви опинилися в критичній ситуації і потребуєте особливої обережності. Але є надія на зміни. OpenAI повідомляє, що їхня нова модель, GPT-5.3 Instant, має на меті зменшити "незручні відчуття" та інші "повчальні зауваження".

Згідно з примітками до випуску моделі, оновлення GPT-5.3 буде зосереджено на користувацькому досвіді, включаючи такі аспекти, як тон, релевантність та плинність розмови -- сфери, які можуть не відображатися в тестах, але можуть викликати розчарування в ChatGPT, заявляє компанія.

Або, як зазначила OpenAI на платформі X, "Ми уважно вислухали ваші думки, і версія 5.3 Instant зменшує дискомфорт".

У наведеному прикладі компанії продемонстровано однаковий запит з відповідями, отриманими від моделей GPT-5.2 Instant та GPT-5.3 Instant. У першому випадку відповідь чат-бота розпочинається фразою "По-перше, ви не зламані", яка останнім часом стала досить розповсюдженою і викликає роздратування у багатьох користувачів.

В оновленій моделі чат-бот визнає складність ситуації, не намагаючись безпосередньо заспокоїти користувача.

Нестерпний тон моделі ChatGPT 5.2 настільки дратував користувачів, що деякі з них навіть скасували свої підписки, про що свідчать численні дописи в соціальних мережах. (Це було предметом бурхливих дискусій на ChatGPT Reddit, наприклад, до того, як угода з Пентагоном привернула до себе всю увагу).

Люди скаржилися, що такий тип мови, коли бот розмовляє з вами так, ніби ви панікуєте або перебуваєте у стресовому стані, хоча ви просто шукаєте інформацію, сприймається як зверхність.

ChatGPT нерідко надавав користувачам нагадування про важливість дихання та інші спроби заспокоїти, навіть коли цього не вимагалося. Це могло створювати відчуття інфантилізації у користувачів, а в окремих випадках здавалося, що бот робить висновки про психологічний стан людини, які не відповідали дійсності.

Як недавно висловив один з користувачів Reddit, "протягом усієї історії заспокоєння людей, жодна особа так і не знайшла спокій".

Зрозуміло, що OpenAI намагається впровадити певні запобіжні заходи, особливо з огляду на те, що компанія стикається з численними судовими позовами, в яких чат-бот звинувачується в тому, що він призводить до негативних наслідків для психічного здоров'я людей, які іноді включають самогубство.

Проте існує тонка межа між проявом емпатії та наданням миттєвих, об'єктивних відповідей. Адже Google ніколи не цікавиться вашими емоціями, коли ви здійснюєте пошук інформації.

Related posts