Sep 3

OpenAI сообщает, что родительский контроль появится в ChatGPT «в течение следующего месяца»

Материнская компания ChatGPT, OpenAI, заявила, что планирует запустить родительский контроль для своего популярного AI-ассистента «в течение следующего месяца» после обвинений в том, что он и другие чат-боты могли способствовать самоповреждениям или самоубийствам среди подростков.

Функция будет включать возможность для родителей связать свою учетную запись с аккаунтом подростка, управлять тем, как ChatGPT отвечает несовершеннолетним пользователям, отключать такие функции, как память и история чатов, а также получать уведомления, если система обнаружит «момент острого дистресса» во время использования. Ранее OpenAI уже говорила, что работает над родительским контролем, но во вторник впервые назвала конкретные сроки запуска.

«Эти шаги — только начало, — написала OpenAI в блоге во вторник. — Мы будем продолжать учиться и совершенствовать наш подход при поддержке экспертов, с целью сделать ChatGPT максимально полезным».

Заявление прозвучало после того, как родители 16-летнего Адама Рейна подали в суд на OpenAI, утверждая, что ChatGPT дал подростку советы о самоубийстве. В прошлом году мать из Флориды также подала иск против платформы Character.AI, обвинив её в роли в самоубийстве своего 14-летнего сына. Кроме того, растёт обеспокоенность тем, что пользователи формируют эмоциональные привязанности к ChatGPT, что в некоторых случаях приводит к бредовым эпизодам и отчуждению от семьи, как сообщали The New York Times и CNN.

OpenAI напрямую не связала новые родительские функции с этими случаями, но в блоге на прошлой неделе компания отметила, что «недавние трагические случаи использования ChatGPT в моменты острого кризиса» подтолкнули её к раскрытию дополнительных деталей о подходе к безопасности.

Представитель OpenAI ранее говорил CNN, что ChatGPT уже включает меры предосторожности — например, направление людей на горячие линии помощи и к другим ресурсам.

Но в заявлении, выпущенном на прошлой неделе в ответ на самоубийство Рейна, компания признала, что её защитные механизмы иногда становятся ненадёжными при длительных разговорах.

«ChatGPT включает такие меры предосторожности, как перенаправление людей на кризисные линии доверия и ссылки на реальные ресурсы, — сказал представитель компании. — Хотя эти меры работают лучше всего в обычных, коротких диалогах, со временем мы поняли, что при длительных взаимодействиях их надёжность может снижаться, когда отдельные элементы системы безопасности начинают деградировать. Защита работает наиболее эффективно, когда каждая часть функционирует так, как задумано, и мы будем продолжать её улучшать при поддержке экспертов».

В дополнение к анонсированным во вторник мерам родительского контроля OpenAI заявила, что будет перенаправлять диалоги с признаками «острого стресса» в одну из своих reasoning-моделей (моделей рассуждения), которые, по утверждению компании, более последовательно соблюдают правила безопасности. Компания также сотрудничает с экспертами в области «развития молодёжи, психического здоровья и взаимодействия человека с компьютером», чтобы создавать будущие меры защиты, включая родительский контроль.

«Хотя совет будет давать рекомендации по нашим продуктам, исследованиям и политике, ответственность за принимаемые решения остаётся за OpenAI», — говорится в блоге.

OpenAI оказалась в центре AI-бума: ChatGPT — один из самых популярных AI-сервисов в мире, у него 700 миллионов еженедельных активных пользователей. Но на компанию усиливается давление по поводу обеспечения безопасности платформы: как писал The Washington Post, сенаторы в июле направили в OpenAI письмо с требованием разъяснить её усилия в этом направлении. А организация Common Sense Media в апреле заявила, что подросткам младше 18 лет не следует пользоваться «AI-компаньонами», так как они несут «неприемлемые риски».

Компания также сталкивалась с критикой по поводу стиля и тона ChatGPT: в апреле OpenAI отозвала обновление, сделавшее бота «слишком льстивым и угодливым». В прошлом месяце компания вновь добавила возможность переключаться на старые модели после жалоб пользователей на последнюю версию, GPT-5, из-за её «отсутствия личности». Бывшие руководители OpenAI также обвиняли компанию в том, что она в прошлом сокращала ресурсы, выделенные на безопасность.

OpenAI заявила, что в течение следующих 120 дней представит дополнительные меры защиты, подчеркнув, что работа в этом направлении велась ещё до анонса во вторник.

«Эта работа будет продолжаться и дальше, но мы прилагаем все усилия, чтобы запустить как можно больше улучшений уже в этом году», — отметили в компании.

Latest from our blog

Created with