Гаган Тандон, управляющий директор TELUS Digital Solutions по сервисам искусственного интеллекта и данных, рассказывает на портале ITPro Today, почему для обучения модели ИИ, которое когда-то требовало сотен людей, теперь требуется всего лишь дюжина — за малую часть прежних затрат.
Всего несколько лет назад обучение больших языковых моделей (LLM) требовало значительных ресурсов, длительных сроков и скоординированных усилий сотен людей. Но в 2025 г., как утверждает OpenAI, ту же работу теперь может выполнить менее чем дюжина человек.
Чем объясняется этот замечательный сдвиг? Достижения в разработке ИИ-чипов, существенное снижение затрат и демократизация ИИ, включая наличие и доступность мощных Open Source-инструментов.
Какие факторы помогли улучшить обучение моделей ИИ?
Помните сгенерированные ИИ видео Уилла Смита, поедающего спагетти, которые стали вирусными в начале 2023 г.? Хотя было ясно, что именно пытались изобразить ИИ-платформы, видеоролики выглядели абстрактными и вымышленными. Однако всего два года спустя ИИ-платформы могут генерировать те же самые видеоролики настолько четко и точно, что часто обманывают зрителей, заставляя думать, что они настоящие.
Этот скачок вперед во многом обусловлен достижениями в обучении моделей ИИ. Ранние модели в основном фокусировались на больших объемах нечетко подобранного текста или изображений. Современные системы обучаются с использованием мультимодальных входных данных, объединяющих текст, изображения, видео и аудио для получения более точных и контекстно-зависимых результатов. Этот сдвиг в подходах к обучению — лишь одно из трех основных изменений, преобразующих то, как сегодня строятся модели ИИ.
1. Улучшенные быстродействие и конструкции чипов
Так же, как более мощные двигатели позволяют вам ехать быстрее, более мощные компьютерные чипы позволяют ИИ учиться быстрее. Быстрое развитие полупроводниковой технологии, следующей закону Мура, согласно которому количество транзисторов на кристалле удваивается примерно каждые два года, привело к последовательному увеличению вычислительной мощности. Однако настоящим переломным моментом стал рост числа чипов, разработанных специально для рабочих нагрузок ИИ. К ним относятся: графические процессоры (GPU), которые изначально были созданы для видеоигр, но теперь широко используются для обучения ИИ; тензорные процессоры (TPU), такие как ИИ-чипы Google; и чипы, разработанные такими компаниями, как Nvidia, специально для ИИ-задач.
Эти специализированные чипы делают все быстрее и эффективнее. Так, в 2020 г. обучение GPT-3 оценивалось в сумму от 4 до 12 млн. долл. и занимало несколько месяцев. Сегодня целевые конструкции (не базовые платформы) можно обучить за несколько недель и за малую часть прежней стоимости.
2. Снижение затрат на обучение и выводы
Каждая часть обучения модели ИИ требует затрат: от хранения и маркировки данных до временных затрат и вычислительной мощности, необходимых для их обработки. К счастью, многие из этих расходов снижаются. Например, теперь компании платят около 2,5 долл. за каждый миллион токенов — небольших единиц текста, которые модели ИИ используют для понимания и генерации языка. Это меньше, чем 10 долл. в прошлом году, согласно Ramp.
Стоимость эксплуатации модели ИИ (известно как получение выводов), также идет вниз. Согласно Stanford «2025 AI Index Report», стоимость запуска модели с производительностью уровня GPT-3.5 с конца 2022 г. снизилась в 280 раз. Совершенствование оборудования способствуют развитию этой тенденции. Например, согласно отчету венчурного капиталиста Мэри Микер, известной своими эпохальными отчетами об интернет-тенденциях, выпущенный Nvidia в 2024 г. графический процессор Blackwell использует в 105 тыс. раз меньше энергии на токен, чем чип компании 2014 г.
3. ПО с открытым исходным кодом
Растущее внедрение ПО с открытым исходным кодом также способствует ускорению инноваций в области ИИ. Сделав инструменты, фреймворки и компоненты моделей свободно доступными, разработчики и исследователи могут более эффективно экспериментировать, итерировать и обучать модели. Такой подход снижает барьеры для входа, сокращает затраты и ускоряет инновации за счет поощрения обмена знаниями между организациями и отраслями. Эта тенденция свидетельствует о продолжающемся сдвиге в отрасли ИИ в сторону более открытого сотрудничества, даже несмотря на то, что компании поддерживают проприетарные версии своих самых передовых моделей.
Кроме того, Open Source-проекты помогают сформировать более инклюзивную и совместную экосистему ИИ. Частные компании, академические институты и независимые разработчики вносят все больший вклад в эти усилия, создавая инструменты, которые решают реальные проблемы, улучшают доступность и поддерживают ответственное развитие. Такое сотрудничество помогает обеспечить отражение более широкого спектра точек зрения и потребностей в том, как создаются и применяются системы ИИ.
Что означает снижение затрат на обучение ИИ для предприятий?
Поскольку стоимость обучения моделей ИИ, включая стоимость разработки и доработки более малых моделей, продолжает снижаться, организациям больше не нужно полностью полагаться на готовые модели общего назначения. Это открывает возможности для более специализированных, ориентированных на конкретную область решений, которые лучше соответствуют индивидуальным потребностям бизнеса и могут быть лучше адаптированы к конкретным сценариям использования.
Одним из важнейших изменений является возможность связывать предварительно обученные модели с внутренними источниками знаний. Эти модели уже содержат широкое понимание мира. В сочетании с собственным опытом в данной области и операционными данными организации получается система, способная генерировать гораздо более релевантные и контекстно-ориентированные результаты. Благодаря растущей экосистеме открытых технологий коррелировать публичные и частные знания становится проще и эффективней.
В таких областях, как научные исследования, здравоохранение и обслуживание клиентов, где точность и контекст имеют значение, организации теперь могут разрабатывать небольшие целенаправленные модели, не начиная с нуля. Вместо того чтобы полагаться на крупномасштабную маркировку данных, многие применяют экспертную тонкую настройку, подкрепленную синтетическими и структурированными данными. Эти достижения делают сложные модели ИИ более доступными во всех отраслях.
По мере роста внедрения ИИ крайне важно сочетать технический прогресс с ответственным развитием посредством четких рамок управления, этических гарантий и внимания к долгосрочным последствиям, таким как экологическая устойчивость. Делая возможности ИИ более доступными, мы приближаемся к истинной демократизации, гарантируя более широкое и справедливое распределение преимуществ передовых технологий.