НовостиОбзорыСобытияIT@WorkРеклама
Искусственный интеллект:

Блог

"Железный" фундамент для искусственного интеллекта

Всплеск интереса к технологиям искусственного интеллекта (AI), подогреваемый сообщениями о создании самоуправляемых автомобилей и иных чудес, ввел в широкий оборот такие термины как машинное обучение (machine learning) и глубокое обучение (deep learning). Многие даже уверены, что лежащие в их основе теории и методы появились чуть ли не вчера. На самом деле, если заглянуть в Википедию, легко убедиться, что подобные исследования и разработки начались еще в середине прошлого столетия при весьма активном участии и наших ученых. Несомненно, за прошедшие годы наука не стояла на месте, но еще лет десять назад тема AI была скорее научно-фантастической, нежели практической и интересной для большого бизнеса. Что же произошло?[spoiler]

Рискну высказать гипотезу, достоверность которой мне подтвердить будет трудно (я не столь глубоко в этой теме). Многие подходы, методы и технологии AI, прежде считавшиеся из-за своей вычислительной сложности практически не реализуемыми, по мере роста производительности железа постепенно переходят в разряд вполне доступных. Об этом свидетельствует, в частности, новость о том, что поддерживаемая Илоном Маском некоммерческая исследовательская организация OpenAI первой получит в свое распоряжение специализированный программно-аппаратный комплекс Nvidia DGX-1, ориентированный прежде всего на решение задач искусственного интеллекта и машинного обучения. Производитель называет его "суперкомпьютером для глубокого обучения из коробки". Nvidia DGX-1 построен на фирменной микроархитектуре Nvidia Pascal и включает 6 графических процессоров Tesla P100, оперативную память 512 Гб и долговременную SSD 1,92 Тб. В качестве базовой ОС используется Ubuntu Server Linux, а для решения задач AI применяются NVIDIA Deep Learning SDK, CUDA (для проектирования многоуровневых нейронных сетей) и обучающая система DIGITS GPU. Утверждается, что тестовые задачи глубокого обучения нейронной сети для распознавания изображений, на которые раньше (на x86-серверах) уходило 150 часов, на Nvidia DGX-1 выполняются за 2 ч. Если учесть, что для получения практически полезного решения необходимо проверить тысячи обучающих алгоритмов на множестве типов нейронных сетей, такой выигрыш в производительности может оказаться решающим. Кстати, стоит "супекомпьютер" Nvidia DGX-1 не так уж дорого - 129 тыс. долл.