Исследователи из Массачусетского технологического института (MIT) полагают, что нашли способ наделить смартфоны возможностями глубинного обучения. В ходе состоявшейся на прошлой неделе конференции International Solid State Circuits Conference (ISSCC) они представили 168-ядерный чип, который, как они утверждают, позволит исполнять на смартфонах и других мобильных и встраиваемых устройствах программный код, реализующий алгоритмы искусственного интеллекта (AI). Тем самым будет обеспечена возможность выполнять значительную часть работы по сбору и обработке данных непосредственно с их помощью.

В настоящее время данные, собранные с помощью такого рода устройств, систем и датчиков, загружаются в Интернет для обработки на мощных серверах, после чего результаты обработки отправляются обратно на устройства. При этом возникает целый ряд проблем, связанных с задержками в сети и возможностью ее перегрузки, а также безопасностью, потреблением энергии и т. д. Кроме того, это означает, что для обработки данных устройство должно быть подключено к сети.

Новый чип, названный его разработчиками Eyeriss, на порядок эффективнее мобильных графических процессоров, обычно содержащих 200 ядер, и обладает функциональными особенностями, позволяющими реализовывать на мобильных устройствах (а не только на серверах в дата-центрах) сложные нейронные сети. А поскольку обработка выполняется локально, отпадает необходимость в интернет-подключении или организации доступа к серверным ресурсам.

Локальный запуск нейронных сетей, когда обработка данных выполняется на устройствах, а в Интернет оправляются полученные результаты, открывает для пользователей весьма широкие возможности, утверждает Вивьен Зи, доцент факультета электротехники и компьютерных наук в MIT, чья группа разработала новый чип.

«Глубинное обучение имеет важное значение для решения многих задач, таких как распознавание объектов, речи, лица, — заявила Зи в отчете, опубликованном MIT News. — В настоящее время сети очень сложны и реализуются, как правило, с помощью мощных графических процессоров. Нетрудно представить, что если удастся ту же функциональность перенести в мобильный телефон или встраиваемые устройства, то вы сможете пользоваться ею даже в отсутствие Wi-Fi-подключения».

По ее словам, возможность обрабатывать данные локально упрощает их защиту и соблюдение конфиденциальности, а также исключает задержки на их передачу, позволяя тем самым пользователям быстрее принимать решение на основе результатов анализа собранной информации. Это может оказать значительное влияние на развитие Интернета вещей (IoT), поскольку миллиарды наделенных искусственным интеллектом сетевых устройств смогут самостоятельно перемалывать данные, не отправляя их на сервера через Интернет. Таким образом, вместо первичной информации в Интернет будут направляться результаты обработки данных с помощью специальных алгоритмов, реализуемых локально на сетевых устройствах.

Все больше технологических вендоров, включая IBM, Google, Microsoft, Qualcomm и Apple, тратят немалые силы и средства на исследования в области искусственного интеллекта и глубинного обучения. В планах выпуска продукции компании Nvidia, производителя графических процессоров, эти направления играют ключевую роль. Главный исполнительный директор компании Дженсен Хуанг заявил в прошлом году, что «тематика глубинного обучения является, вероятно, не менее захватывающей, чем какая-либо иная в этой отрасли». В группу исследователей, работающих над созданием Eyeriss, входит Джоэл Эммер, профессор факультета электротехники и компьютерных наук MIT и старший научный сотрудник Nvidia.

Нейронные сети создаются в виде многослойной структуры, включающей большое число обрабатывающих узлов. Узлы одного слоя обрабатывают входные данные и затем передают их узлам следующего слоя. Конечная цель, заключающаяся в получении правильного ответа на поставленный вопрос, достигается после того, как данные будут обработаны в нескольких слоях. В сверточной нейронной сети отдельные узлы в каждом слое обрабатывают данные по-разному, а это означает, что они могут быть довольно большими, считают исследователи MIT. Такие нейронные сети проектируются как самообучаемые, то есть обладающие присущими человеческому мозгу свойствами.

Цель создания Eyeriss заключалась в том, чтобы разработать чип, способный выполнить как можно большую работу на одном устройстве. При этом исследователи стремились уменьшить частоту необходимых обращений ядер к банкам памяти для обмена данными, что позволило бы сократить затраты времени и энергии для каждого устройства. Если в графических процессорах ядра используют общий банк памяти, то в Eyeriss каждое ядро имеет свою память. Кроме того, в кристалле реализована схема компрессии данных перед их отправкой индивидуальным ядрам.

В числе других особенностей кристалла следует отметить способность каждого ядра коммуницировать напрямую с другими ядрами, если в этом есть необходимость, а также наличие специальной схемы распределения задач между ядрами.

Участие в финансировании исследований в рамках данного проекта приняло агентство передовых оборонных исследовательских проектов Министерства обороны США (DARPA).

Версия для печати