Включение поддержки RISC-V в CUDA от Nvidia в сочетании с интеграцией в ядро Linux позиционирует эту Open Source-архитектуру как более дешевую альтернативу ARM и x86 в области разработки искусственного интеллекта, пишет на портале The New Stack Брюс Кэмерон Гейн, основатель и главный аналитик ReveCom Media.
Развитие стандарта RISC-V достигло такого уровня, когда недостатки в производительности в значительной степени нивелировались по сравнению с давно проверенными — и гораздо более дорогими — процессорами ARM и x86.
Это отличная новость для тех, кто ищет более экономичный способ программирования своих чипов, или для разработчиков, которые хотят оптимизировать производительность своих CPU — не только из-за значительных затрат, связанных с лицензированием ARM, но и из-за свободы внедрения наборов инструкций без необходимости каждый раз получать разрешение ARM.
Это, в сочетании с присущими RISC-V векторными возможностями, объясняет, почему эта архитектура особенно хорошо подходит для ИИ, где необходимо параллельное выполнение множества процессов — рабочая нагрузка, для которой RISC-V особенно хорошо адаптирован.
Возможно, одним из самых недооцененных и малоизвестных переломных моментов в развитии чипов для ИИ стало прошлогоднее сообщение о планах Nvidia — в частности, о том, что CUDA будет поддерживать наборы инструкций RISC-V. Также в прошлом году в ядре Linux были обновлены драйверы реализации и патчи для RISC-V, что добавило последний недостающий важный элемент в то, что должно стать долгосрочным стремлением к переходу на Open Source-устройства на RISC-V. Ubuntu от Canonical также поддерживает RISC-V.
Это означает, что разработчики и производители устройств теперь могут программировать и внедрять процессоры RISC-V, совместимые с поддерживаемыми Linux наборами инструкций и графическими процессорами Nvidia CUDA — практически так же, как и процессоры x86 и ARM. Это представляет собой значительный импульс в условиях дефицита относительно дорогих CPU и ARM-процессоров по сравнению с теперь более дешевыми RISC-V-альтернативами.
Следует отметить, что хотя очевидно, что это может стать большим преимуществом для разработки ИИ — особенно для большого числа периферийных и встроенных устройств, для которых хорошо подходит RISC-V, — Nvidia официально не заявляла, что эта поддержка специально предназначена для расширения поддержки ИИ. Тем не менее, разработчики теперь могут создавать и реализовывать наборы инструкций для ИИ на графических процессорах Nvidia — не беспокоясь о лицензировании и затратах на ARM и x86.
«Фреймворки ИИ постоянно меняются, в то время как CUDA доминирует, — говорит Юнин Лян, основатель и генеральный директор RISC-V OEM DeepComputing. — Появляются новые фреймворки. И на фоне всего этого ПО остается ключевым фактором».
Работа инженеров с процессорами RISC-V, где они могут делать все, что захотят, совершенно не похожа на работу с CPU-лицензиями ARM, Intel или AMD. «В прежние времена вы не могли попросить Intel сделать что-либо. Все, что вам оставалось, это смириться с этим. Но теперь, с RISC-V, вы можете использовать все свое воображение, делать все, что угодно, и извлекать из этого максимум пользы», — отмечает Лян.
Неожиданный поворот
До бума ИИ, до появления больших языковых моделей (LLM) и знаменитой исследовательской работы Google по трансформерам, никто этого не ожидал. «Я понятия не имел, куда приведут высокопроизводительные SoC на базе RISC-V, — говорит Лян. — К счастью, ИИ развивается, и поэтому мы полностью погружаемся в него».
В ежегодном отчете RISC-V International за 2025 г. Крсте Асанович, главный архитектор RISC-V, так оценил текущее состояние дел на конец года и перспективы на
По его словам, уже происходит значительное внедрение в сегменте встраиваемых систем и IoT. В центрах обработки данных и автомобильной промышленности наблюдается постоянно растущий интерес к вычислительным системам общего назначения на базе RISC-V. В то же время, растут возможности их применения на рынках с меньшим количеством процессорных сокетов, но с высокими требованиями, таких как космическая отрасль и высокопроизводительные вычисления (HPC).
И, конечно же, есть ИИ. «Наряду с безопасностью, ИИ охватывает все вертикальные рынки, — отмечает Асанович. — В течение 2025 г. произошли кардинальные изменения, и можно с уверенностью сказать, что почти каждый новый проект ускорителя ИИ, который я видел, использует RISC-V. Это не случайно: мы с самого начала разрабатывали RISC-V для поддержки скалярных, векторных и матричных вычислений, поэтому эта архитектура просто хорошо работает. Одни и те же ядра могут обрабатывать управляющие и числовые нагрузки, масштабироваться по уровням производительности и развиваться вместе с ИИ. Все основные игроки отрасли начинают понимать, что RISC-V скоро станет доминирующей открытой архитектурой набора команд. На многих вертикальных рынках уже не стоит вопрос „если“. Сейчас обсуждается вопрос о том, как, когда и где будет использоваться RISC-V».






























