Руководители компаний и исследователи искусственного интеллекта выступили с очередным грозным предупреждением об экзистенциальном вреде, который несет в себе эта быстро развивающаяся технология. Их критики, однако, утверждают, что сосредоточение на гипотетических рисках отвлекает внимание от насущных проблем общества, сообщает Bloomberg News.

Генеральные директора некоторых ведущих компаний в области ИИ, включая DeepMind, OpenAI и Anthropic, присоединились к растущему хору лидеров, предупреждающих об экзистенциальном вреде быстро развивающейся технологии.

В кратком заявлении, опубликованном 30 мая некоммерческим Центром безопасности ИИ (Center for AI Safety), говорится, что «снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

Заявление подписали более 350 руководителей и исследователей, включая Сэма Альтмана, генерального директора OpenAI, компании, стоящей за ChatGPT, Демиса Хассабиса, возглавляющего DeepMind, и Дарио Амодея, генерального директора Anthropic, стартапа, соучредителями которого являются ветераны OpenAI.

Заявление, состоящее из одного предложения, является новым громким предупреждением от лидеров отрасли, призывающих обратить внимание на серьезные риски, которые ИИ представляет для общества. В марте более 1100 лидеров индустрии, включая Элона Маска, профессора информатики Калифорнийского университета в Беркли Стюарта Рассела и соучредителя Apple Стива Возняка, выступили за шестимесячную паузу в обучении мощных моделей ИИ.

Несмотря на грозные предупреждения технологических лидеров некоторые их критики утверждают, что ИИ еще недостаточно развит, чтобы оправдать опасения, что он уничтожит человечество, и что сосредоточение внимания на сценариях конца света лишь отвлекает от таких проблем, как алгоритмическая предвзятость, расизм и риск безудержной дезинформации.

«Я думаю, что это способ контролировать повестку дня, — говорит Саша Луччиони, научный сотрудник ИИ-стартапа Hugging Face. — Мы должны говорить о законодательстве, о таких вещах, как риски предвзятости, о том, как ИИ используется не во благо обществу, но вместо этого мы сосредотачиваемся на гипотетических рисках. Это своего рода трюк».

Ранее в мае Джеффри Хинтон — один из так называемых крестных отцов ИИ, который провел десятилетия, совершая революцию в этой области и помогая создавать современные передовые технологии машинного обучения, — объявил о своем уходе из исследовательской группы Google по ИИ и заявил, что компании слишком быстро открывают возможности ИИ для общественности.