Stanford Institute for Human-Centered Artificial Intelligence (HAI) выпустил свой Индекс искусственного интеллекта 2023, в котором анализируется влияние и прогресс ИИ. Отчет представляет собой глубокое погружение в темы, связанные с ИИ, такие как исследования, этика, политика, общественное мнение и экономика, сообщает портал Datanami.

Ключевые выводы исследования касаются того, как расширяются исследования в области ИИ, включая распознавание образов, машинное обучение и компьютерное зрение. В отчете отмечается, что с 2010 г. количество публикаций по ИИ увеличилось более чем в два раза. Несмотря на это, индустриальное развитие ИИ опережает академические исследования: в отчете приводятся 32 значимые модели машинного обучения, созданные бизнесом, и всего три, созданные академическими кругами. Авторы исследования объясняют это огромными ресурсами, необходимыми для обучения этих крупных моделей.

Традиционные бенчмарки ИИ, такие как эталон классификации изображений ImageNet и тест на понимание прочитанного SQuAD, уже недостаточны для измерения прогресса, что привело к появлению новых эталонов, таких как BIG-bench и HELM. Ванесса Парли, помощник директора HAI и член руководящего комитета AI Index, объясняет это тем, что многие эталоны ИИ достигли точки насыщения, когда улучшения практически не происходят, и что исследователи должны разработать новые эталоны, основанные на том, как общество хочет взаимодействовать с ИИ. Она приводит в пример ChatGPT и то, как он проходит многие эталонные испытания, но при этом часто выдает неверную информацию.

Этические проблемы, такие как предвзятость и дезинформация, были еще одним аспектом ИИ, рассмотренным в отчете. С ростом популярности таких моделей генеративного ИИ, как DALL-E 2, Stable Diffusion и, конечно же, ChatGPT, этические злоупотребления ИИ становятся все более распространенными. В отчете отмечается, что количество инцидентов и противоречий, связанных с ИИ, увеличилось в 26 раз с 2012 г. (согласно базе данных AIAAIC, независимого репозитория данных, связанных с неправильным использованием ИИ). Кроме того, интерес к этике ИИ стремительно растет, так как, согласно исследованию, количество заявок на участие в конференции по этике ИИ FAccT более чем удвоилось с 2021 г., а с 2018-го увеличилось в 10 раз.

Большие языковые модели срывают банк своим возросшим размером. В отчете приводится пример модели PaLM от Google, выпущенной в 2022 г., — отмечается, что она оказалась в 160 раз дороже и в 360 раз больше, чем GPT-2 от OpenAI в 2019 г. В целом, чем больше модель, тем выше стоимость обучения. По оценкам исследователей, обучение модели Chinchilla компании Deepmind и BLOOM компании HuggingFace обошлось в 2,1 и 2,3 млн. долл. соответственно.

В глобальном масштабе частные инвестиции в ИИ в 2021-2022 гг. сократились на 26,7%, а финансирование стартапов в области ИИ также замедлилось. Однако за последнее десятилетие инвестиции в ИИ значительно выросли: как показано в отчете, объем частных инвестиций в ИИ в 2022 г. увеличился в 18 раз по сравнению с 2013 г. Также наблюдается плато в количестве компаний с новыми инициативами по внедрению ИИ. В период с 2017 по 2022 гг. доля компаний, внедряющих ИИ, удвоилась, говорится в отчете, но в последнее время наблюдается выравнивание на уровне 50-60%.

Еще одной темой, представляющей интерес, является растущее внимание к ИИ правительств. В отчете были проанализированы законодательные документы 127 стран и обнаружено, что в 2022 г. было принято 37 законопроектов, содержащих «искусственный интеллект», по сравнению с одним в 2016 г. В судах также наблюдается резкий рост числа судебных дел, связанных с ИИ: в 2022 году рассматривалось 110 таких дел, связанных с гражданским правом, интеллектуальной собственностью и договорным правом.