Компании, занимающиеся разработкой искусственного интеллекта, которые раньше сдержанно относились к использованию своих технологий в военных целях, меняют свою политику и заключают сделки, чтобы предложить их спецслужбам и Пентагону.
07.11.2024 г. Anthropic, ведущий ИИ-стартап, собравший миллиарды долларов финансирования и конкурирующий с разработчиком ChatGPT, компанией OpenAI, объявил, что будет продавать свой ИИ американским военным и разведчикам в рамках сделки с облачным бизнесом Amazon и производителем программного обеспечения для государственных структур Palantir.
04.11.2024 г. компания Meta изменила свои правила, чтобы разрешить военным использовать свою бесплатную технологию ИИ с открытым исходным кодом Llama, которая конкурирует с технологиями, предлагаемыми OpenAI и Anthropic. В тот же день OpenAI объявил о сделке по продаже ChatGPT ВВС США, после того как ранее в этом году компания изменила свою политику, разрешив использование своего программного обеспечения в военных целях.
Сделки и изменения в политике подчеркивают широкий сдвиг, в результате которого технологические компании стали более тесно сотрудничать с Пентагоном, несмотря на то, что некоторые сотрудники протестуют против того, что их работа содействует военному применению.
В июне компания Anthropic изменила свою политику, разрешив использовать свои технологии в некоторых разведывательных службах, но при этом запретив клиентам использовать их для создания оружия или слежки внутри страны. OpenAI также запрещает использовать свою технологию для разработки оружия. Представители Anthropic и OpenAI не дали никаких комментариев, кроме ссылок на политику.
Сторонники контроля над вооружениями давно призывают к международному запрету на использование ИИ в оружии. Американские военные придерживаются политики, согласно которой люди должны сохранять значимый контроль над оружейными технологиями, но противятся прямому запрету, утверждая, что такой запрет позволит противникам получить технологическое преимущество.
Технологические лидеры и политики из обеих основных партий все чаще заявляют, что американские технологические компании должны активизировать разработку оборонных технологий, чтобы сохранить военную и технологическую конкурентоспособность страны по отношению к Китаю.
В прошлом месяце генеральный директор Anthropic, Дарио Амодей, в своем блоге утверждал, что демократические страны должны стремиться к разработке лучших технологий ИИ, чтобы обеспечить себе военное и коммерческое преимущество перед авторитарными странами, которые, по его словам, вероятно, будут использовать ИИ для нарушения прав человека.
«Если мы сможем сделать все это, то получим мир, в котором демократии будут лидировать на мировой арене и обладать экономической и военной мощью, чтобы не быть подорванными, завоеванными или саботированными автократиями», — говорится в блоге Амодея.
Среди сторонников Anthropic – Google и Amazon, вложившие в стартап 4 миллиарда долларов.
Американские военные используют искусственный интеллект для самых разных целей, в том числе для прогнозирования сроков замены деталей в самолетах и распознавания потенциальных целей на поле боя.
Компания Palantir, с которой Anthropic сотрудничает, чтобы донести свою технологию до государственных заказчиков, продает технологию искусственного интеллекта, позволяющую автоматически обнаруживать потенциальные цели по спутниковым и воздушным снимкам. Консультант Palantir и донор Дональда Трампа, Джейкоб Хелберг, 05.11.2024 г. вечером наблюдал за результатами выборов на официальном мероприятии кандидата от Республиканской партии в Палм-Бич, штат Флорида.
Война в Украине вызвала новый интерес к адаптации дешевых, коммерчески доступных технологий, таких как небольшие беспилотники и спутниковые интернет-тарелки, для использования в военных целях. В Кремниевой долине появилось множество стартапов, которые пытаются изменить оборонную промышленность США и продать новые инструменты военным.
Военные лидеры в США и во всем мире ожидают, что в будущем технологии на поле боя будут все больше зависеть от человеческого контроля. Хотя окончательные решения о выборе целей и стрельбе из оружия, как правило, остаются за человеком, сторонники контроля над вооружениями и исследователи ИИ опасаются, что более широкое использование ИИ может привести к принятию неверных решений или смертельным ошибкам и нарушению международных законов.
Google, Microsoft и Amazon ведут ожесточенную конкурентную борьбу за контракты на облачные вычисления для военных, но некоторые сотрудники компаний отказываются от такой работы.
В 2018 году Google заявил, что не будет продлевать контракт с Пентагоном на анализ изображений, полученных с беспилотников, на фоне общественного резонанса и протестов сотрудников. Компания продолжает расширять свои военные контракты, даже столкнувшись с упорным сопротивлением.
В этом году Amazon и Google столкнулись с протестами сотрудников в связи с контрактами с израильским правительством на фоне опасений, что эта работа может помочь военным. В августе группа сотрудников ИИ-подразделения Google, DeepMind, подписала письмо, в котором просила компанию убедиться, что она не продает ИИ военным, и расторгнуть все контракты, если это так, согласно копии, полученной The Post.
OpenAI и Anthropic, относящиеся к новому поколению разработчиков ИИ, начали работать с военными и разведкой сравнительно рано в ходе своего корпоративного развития. Некоторые другие компании, переживающие бум ИИ, такие как поставщик данных Scale AI, сделали готовность работать с военными одним из основных направлений своей деятельности.
Источник: The Washington Post