Новости

Сэм Альтман из OpenAI предлагает концепцию развертывания ИИ в вооруженных силах США.

Этот конфликт между антропогенными структурами и Пентагоном по поводу военного ИИ показывает, кто на самом деле контролирует самые мощные модели в Америке.

Конфликт начался, когда Пентагон потребовал от компании Anthropic разрешить «все законные способы использования» её моделей искусственного интеллекта. (Изображение иллюстративное)
Конфликт начался, когда Пентагон потребовал от компании Anthropic разрешить «все законные способы использования» своих моделей искусственного интеллекта. (Изображение для иллюстрации) Wikimedia Commons/DoW

Сэм Альтман из OpenAI выступил в защиту своей конкурентной компании Anthropic, выразив обеспокоенность по поводу сотрудничества с Министерством обороны США. Согласно сообщениям, Альтман считает, что любая компания, занимающаяся искусственным интеллектом, должна иметь четкие «красные линии» при работе с Пентагоном.

Все началось с того, что Пентагон попросил компанию Anthropic разрешить использование своей модели ИИ «для всех законных целей». Компания Anthropic, со своей стороны, рада сотрудничать с Министерством обороны, но обеспокоена тем, что это может означать использование ее моделей ИИ, например, для создания автономного оружия.

Теоретически, его также можно использовать для массового наблюдения за законопослушными гражданами США. Его искусственный интеллект также может применяться в системах, надежность которых не гарантирована.

Для справки, Claude AI от Anthropic был первой моделью ИИ такого рода, использованной в секретных военных целях. Сообщается, что Пентагон дал им срок до 17:01 27 февраля для выполнения этого требования.

Что еще более тревожно для них, так это то, что отказ может поставить под угрозу их текущий выгодный контракт с DoW на сумму 200 миллионов долларов. Отказ от сотрудничества также может привести к тому, что компания будет признана «рискованной в цепочке поставок».

Антропогенные отрасли должны отказаться от ограничительных мер, требуют власти.

Кроме того, правительство потенциально может использовать юридические полномочия (например, Закон о производстве продукции оборонного назначения), чтобы принудить к сотрудничеству. Очевидно, что в случае реализации это будет очень серьезной эскалацией конфликта.

По данным CNN, Сэм Альтман вмешался, чтобы попытаться убедить Пентагон снизить напряженность. Он считает, что это не единичный случай, касающийся только компании Anthropic, а может затронуть и другие компании, занимающиеся искусственным интеллектом, такие как OpenAI.

Иными словами, в случае успеха это создаст неприемлемый прецедент. Иными словами, Пентагон фактически под давлением требует от Anthropic отказаться от своих внутренних мер безопасности в области ИИ.

«Несмотря на все мои разногласия с Anthropic, я в основном доверяю этой компании, и я думаю, что они действительно заботятся о безопасности, и я рад, что они поддерживают наших военнослужащих», — сказал Альтман в интервью CNC в пятницу.

«Я не уверен, к чему это приведет», — добавил он.

«Это уже не просто вопрос между Anthropic и DoW; это вопрос для всей отрасли, и важно прояснить нашу позицию», — как сообщается, заявил Альтман сотрудникам OpenAI во внутренней служебной записке.

Ожидание, затаив дыхание

Он также пояснил, что у OpenAI есть собственное предложение для Пентагона, которое, по их мнению, позволит «развертывать наши модели в засекреченных средах, и это соответствует нашим принципам», что может подойти и для других лабораторий искусственного интеллекта.

«Мы считаем, что этот спор касается не того, как будет использоваться ИИ, а контроля. Мы считаем, что частная американская компания не может быть могущественнее демократически избранного правительства США, хотя компании могут иметь большой контроль и влияние», — продолжил Альтман в служебной записке, как сообщает Wall Street Journal.

«То, как развивалась нынешняя ситуация, ставит под угрозу нашу национальную безопасность, а также создает риск того, что правительство прибегнет к действиям, которые могут поставить под угрозу лидерство Америки в области искусственного интеллекта. Мы хотели бы попытаться помочь деэскалировать ситуацию», — добавил Альтман.

Дальнейшие события определят не только условия одного контракта между ИИ и DoW, но и правила взаимодействия между Кремниевой долиной и государством. Сохранится ли «право этического вето» в этот момент, может определить, как будет создаваться, развертываться и в конечном итоге контролироваться военный ИИ на долгие годы вперед.

Sourse: interestingengineering.com

Похожие статьи

Кнопка «Наверх»