Mar 6

Генеральный директор OpenAI Сэм Альтман разделяет опасения Anthropic по поводу сотрудничества с Пентагоном.

Создатель ChatGPT — компания OpenAI — имеет такие же «красные линии», как и Anthropic, когда речь идет о сотрудничестве с Министерство обороны США (Пентагоном). Об этом представитель OpenAI подтвердил телеканалу CNN.

Это означает, что даже если Пентагон решит отказаться от контракта с Anthropic в пользу OpenAI, ему всё равно придётся учитывать те же ограничения — например, опасения по поводу использования искусственного интеллекта в автономном оружии и массовой слежке за гражданами США.

Генеральный директор OpenAI Сэм Альтман в интервью CNBC в пятницу утром заявил, что компаниям важно сотрудничать с Пентагоном, «если это соответствует правовым нормам и тем нескольким красным линиям», которые существуют у OpenAI и многих представителей индустрии ИИ относительно применения технологии в военной сфере.

«Несмотря на все разногласия, которые у меня есть с Anthropic, я в целом доверяю им как компании и думаю, что они действительно заботятся о безопасности. Я рад, что они поддерживают наших военнослужащих», — продолжил Альтман.
«Я не уверен, чем всё это закончится».

Пентагон отказался комментировать ситуацию.

Источник, знакомый с происходящим, сообщил, что Альтман на этой неделе напрямую обратился в Пентагон, выразив обеспокоенность тем, что министр обороны Пит Хегсет может объявить Anthropic «риском для цепочки поставок» или воспользоваться законом Defense Production Act, чтобы заставить компанию работать с военными.

Система Claude от Anthropic стала первой моделью искусственного интеллекта, использованной в работе с секретными военными системами. Однако Пентагон дал компании время до 17:01 в пятницу, чтобы она согласилась убрать свои внутренние ограничения (guardrails) и позволила использовать систему для «любого законного применения».

Если Anthropic не согласится, она может потерять контракт на $200 млн с Пентагоном и получить статус «риска для цепочки поставок» — тот же ярлык, который обычно дают компаниям, связанным с иностранными противниками США.

Anthropic заявила, что хочет сотрудничать с Пентагоном, но её опасения по поводу автономного оружия и массового наблюдения связаны с тем, что технология пока остаётся недостаточно надёжной для таких задач. Компания также считает, что действующие законы и правила не успевают за развитием ИИ.

В служебной записке сотрудникам OpenAI, полученной CNN, Альтман написал:

«Это больше не просто вопрос между Anthropic и Министерством обороны. Это вопрос для всей индустрии, и важно прояснить нашу позицию».

Он добавил, что OpenAI предложила Пентагону вариант сотрудничества, который позволит использовать модели компании в секретных средах, при этом соблюдая её принципы. По его словам, такой подход может подойти и другим лабораториям ИИ.

«Мы считаем, что этот спор не о том, как будет использоваться ИИ, а о контроле. Мы считаем, что частная американская компания не может быть более влиятельной, чем демократически избранное правительство США, хотя компании могут иметь значительное влияние и участие», — написал Альтман в меморандуме, о котором впервые сообщила The Wall Street Journal.

Он также отметил:

«Текущая ситуация может поставить под угрозу нашу национальную безопасность, а также привести к действиям правительства, которые могут ослабить лидерство США в области ИИ. Мы хотим помочь снизить напряжение».

OpenAI — одна из нескольких компаний, заключивших летом прошлого года соглашения с Пентагоном о разработке прототипов передовых систем ИИ для решения задач национальной безопасности — как в военной сфере, так и в управлении.

Однако до недавнего времени модель Claude от Anthropic была единственной, используемой в секретных военных системах. Представитель Пентагона сообщил CNN, что теперь модель Grok от Илон Маск уже готова к использованию в секретных средах, а другие компании, включая OpenAI, находятся на финальной стадии подготовки.

Примечание редактора: ранее в статье был комментарий Пентагона о расширении его возможностей в области ИИ и мерах по обеспечению безопасности моделей, однако ведомство позже заявило, что этот комментарий был предоставлен ошибочно, и он был удалён из материала.

Latest from our blog

Created with