Почему искусственный интеллект так дорог?

Почему искусственный интеллект так дорог?

Спустя более 18 месяцев после начала ажиотажа вокруг генеративного ИИ некоторые из крупнейших технологических компаний доказывают, что искусственный интеллект может стать настоящим драйвером роста доходов. Но это еще и огромная денежная яма.

Microsoft Corp. и Google, принадлежащая Alphabet Inc. сообщили о резком росте доходов от облачных вычислений в своих последних квартальных результатах, поскольку бизнес-клиенты стали тратить больше средств на свои услуги искусственного интеллекта. Компания Meta Platforms Inc., хотя и отстает в монетизации технологии, заявила, что ее усилия в области ИИ способствовали повышению вовлеченности пользователей и таргетированию рекламы.

Чтобы добиться таких первых успехов, три компании потратили миллиарды на развитие ИИ, и они планируют увеличить эти инвестиции еще больше.

25 апреля Microsoft сообщил, что в последнем квартале потратил 14 миллиардов долларов на капитальные расходы и ожидает, что эти расходы «существенно возрастут», в том числе за счет инвестиций в инфраструктуру искусственного интеллекта. Это на 79 % больше, чем в предыдущем квартале. Alphabet заявил, что потратил 12 миллиардов долларов в течение квартала, что на 91 % больше, чем годом ранее, и ожидает, что до конца года расходы будут «на уровне или выше» этого уровня, поскольку он сосредоточится на возможностях ИИ. Мета, тем временем, повысила свои оценки инвестиций на год и теперь считает, что капитальные затраты составят от 35 до 40 миллиардов долларов, что означает увеличение на 42 % в верхней части диапазона. Компания ссылается на агрессивные инвестиции в исследования ИИ и разработку продуктов.

Рост стоимости ИИ застал некоторых инвесторов врасплох. В частности, акции компании Meta упали на фоне прогноза расходов и замедленного, по сравнению с ожиданиями, роста продаж. Но в технологической отрасли уже давно принято считать, что расходы на ИИ будут расти. На это есть две основные причины: Модели ИИ становятся все больше и дороже в разработке, а глобальный спрос на услуги ИИ требует строительства гораздо большего количества центров обработки данных для их поддержки.

Предприятия, экспериментирующие с такими ИИ-сервисами, могут потратить миллионы на настройку продуктов от OpenAI или Google. После того как они будут запущены, каждый раз, когда кто-то обращается к чат-боту или просит службу искусственного интеллекта проанализировать данные о продажах, это будет стоить дополнительных затрат. Но более дорогостоящей работой является создание фундамента для этих систем искусственного интеллекта. Предлагаем вам взглянуть на эти усилия.

Большие языковые модели становятся все больше.

Самые известные на сегодняшний день продукты ИИ, в том числе ChatGPT от OpenAI, работают на основе больших языковых моделей – систем, в которые загружаются огромные объемы данных, включая книги, статьи и онлайн-комментарии, чтобы выдать наилучшие ответы на запросы пользователей. Многие ведущие компании, занимающиеся разработкой искусственного интеллекта, делают ставку на то, что путь к созданию более сложного искусственного интеллекта – возможно, даже систем ИИ, способных превзойти человека в решении многих задач, – лежит через создание еще более крупных языковых моделей.

Для этого необходимо получить больше данных, увеличить вычислительную мощность, а также дольше обучать системы ИИ. В подкаст-интервью в начале апреля Дарио Амодей, исполнительный директор компании OpenAI, конкурирующей с Anthropic, сказал, что обучение нынешних моделей ИИ, представленных на рынке, стоит около 100 миллионов долларов.

«Модели, которые сейчас находятся в процессе обучения и которые появятся в разное время в конце этого или начале следующего года, по стоимости приближаются к 1 миллиарду долларов», – сказал он. «А в 2025 и 2026 годах, я думаю, мы приблизимся к 5 или 10 миллиардам долларов».

Чипы и вычислительные затраты.

Большая часть этих затрат связана с чипами. Это не центральные процессоры (CPU), прославившие Intel Corp., и не их уменьшенные мобильные родственники, которыми оснащены миллиарды смартфонов. Для обучения больших языковых моделей ИИ-компании полагаются на графические процессоры, которые могут обрабатывать огромные объемы данных с высокой скоростью. Эти чипы не только дефицитны, но и очень дороги, а самые передовые из них производятся в основном одной компанией: Nvidia Corp.

Графический чип H100 от Nvidia, золотой стандарт для обучения моделей искусственного интеллекта, продается примерно за 30 000 долларов, а некоторые реселлеры предлагают их в несколько раз дороже. А крупным технологическим компаниям их нужно много. Генеральный директор Meta, Цукерберг, ранее заявлял, что его компания планирует приобрести 350 000 чипов H100 до конца этого года для поддержки своих исследований в области ИИ. Даже если он получит скидку на оптовую закупку, это легко выльется в миллиарды долларов.

Компании могут выполнять эту работу, не покупая сами чипы, но они тоже стоят недешево. Например: Облачное подразделение Amazon.com Inc. арендует у клиентов большой кластер рабочих процессоров, созданных Intel, примерно за 6 долларов в час. Для сравнения, часовая работа группы чипов Nvidia H100 стоит почти 100 долларов.

В марте Nvidia представила новый дизайн процессора под названием Blackwell, который в несколько раз быстрее справляется с большими языковыми моделями и, как ожидается, будет стоить так же, как и линейка Hopper, в которую входит H100. Nvidia заявила, что для обучения модели ИИ с 1,8 триллионами параметров потребуется около 2 000 графических процессоров Blackwell. Это примерный размер GPT-4 от OpenAI, согласно иску New York Times, поданному в связи с использованием стартапом своих статей для обучения систем искусственного интеллекта. Для сравнения, Nvidia заявила, что для выполнения той же задачи требуется 8000 графических процессоров Hopper. Но это улучшение может быть компенсировано стремлением отрасли создавать более крупные модели искусственного интеллекта.

Центры обработки данных.

Компаниям, которые покупают эти чипы, нужно где-то их размещать. Meta, а также крупнейшие компании, занимающиеся облачными вычислениями, – Amazon, Microsoft и Google – и другие поставщики вычислительной мощности в кредит, наперегонки строят новые серверные фермы. Эти здания, как правило, строятся на заказ. В них размещаются стойки с жесткими дисками, процессорами, системами охлаждения, штабелями электрооборудования и резервными генераторами.

По оценкам исследователя Dell’Oro Group, в этом году компании потратят на строительство и оснащение центров обработки данных 294 миллиарда долларов, тогда как в 2020 году эта цифра составила 193 миллиарда долларов. Во многом это связано с широким распространением цифровых услуг – потоковое видео, взрывной рост корпоративных данных, ваша лента в социальных сетях. Но все большая часть этих расходов предназначена для дорогих чипов Nvidia и другого специализированного оборудования, необходимого для поддержки бума искусственного интеллекта.

По данным компании DC Byte, специализирующейся на анализе рынка, в мире сейчас насчитывается более 7000 центров обработки данных, включая объекты на различных стадиях развития, по сравнению с 3600 в 2015 году. Эти объекты также становятся все больше. По данным DC Byte, средняя площадь зданий центров обработки данных по всему миру составляет 412 000 квадратных футов, что почти в пять раз больше, чем в 2010 году.

Договоры и таланты.

Хотя львиная доля расходов приходится на чипы и центры обработки данных, некоторые компании, занимающиеся разработкой ИИ, также тратят миллионы на лицензирование данных у издателей.

OpenAI заключила сделки с несколькими европейскими издательствами, чтобы включить их новостной контент в ChatGPT, а также обучать свои модели ИИ. Финансовые условия этих сделок не разглашаются, но Bloomberg News ранее сообщал, что OpenAI согласилась заплатить десятки миллионов евро Axel Springer SE, немецкому издателю Politico и Business Insider, за право использовать свои новостные статьи. Стартап также вел переговоры о лицензировании контента с Time, CNN и Fox News.

В то время как OpenAI более активно заключает лицензионные сделки, крупные технологические компании также ищут способы получения языковых данных, необходимых им для создания привлекательных инструментов ИИ. Google заключил сделку на 60 миллионов долларов на лицензирование данных с Reddit, сообщил Reuters. А сотрудники Meta, как сообщается, обсуждали покупку книжного издательства Simon & Schuster, об этом сообщил New York Times.

Технологические компании также находятся в состоянии лихорадочной войны за таланты в области ИИ. В прошлом году компания Netflix Inc. разместила объявление о вакансии менеджера по продуктам ИИ, предлагая зарплату до 900 000 долларов.

Более дешевые альтернативы.

Компания Microsoft, которая больше других сделала для разжигания ажиотажа вокруг больших языковых моделей, недавно заявила, что собирается применить другой подход. Компания представила три небольшие модели ИИ, которые требуют меньше вычислений.

Microsoft считает, что большие языковые модели «по-прежнему будут золотым стандартом для решения многих типов сложных задач», таких как «расширенные рассуждения, анализ данных и понимание контекста». Но для некоторых клиентов и случаев использования может быть достаточно и небольших моделей. Другие компании, включая Sakana AI, стартап, основанный двумя бывшими сотрудниками Google, также фокусируются на небольших моделях.

«Вам не нужен постоянно спортивный автомобиль», – сказал Роуэн Курран, старший аналитик Forrester Research, специализирующийся на ИИ. Иногда вам нужен минивэн или пикап». Это не будет один широкий класс моделей, который все будут использовать для всех случаев жизни».

Однако пока в мире ИИ принято считать, что больше – значит лучше. Это будет дорого стоить.

Источник: Blooomberg