НовостиОбзорыСобытияIT@WorkРеклама
Искусственный интеллект:

Блог

С кем будут общаться чат-боты

Начну издалека. В свое время разговоры об умных домах начинались, как я помню, с умных холодильников, которые будут отслеживать номенклатуру лежащих в них продуктов[spoiler] и по мере необходимости заказывать в интернете недостающие или подходящие к концу запасы. Потом спектр обсуждаемых умных домашних вещей стал расширяться: заговорили об умных системах отопления/кондиционирования, освещения, охраны и т.д. Когда в этом списке появился унитаз, меня неожиданно рассмешила догадка: а что если холодильник и унитаз окажутся настолько умными, что договорятся с целью оптимизации процесса пускать поток продуктов напрямую, минуя хозяев дома. :D

Недавно вспомнил об этой анекдотической гипотезе, читая многочисленные анонсы разработок так называемых чат-ботов (chatbot или chatterbot) - речевых программных роботов, способных заменить в рутинном общении специалиста службы поддержки или продавца с клиентом-человеком. Чат-боты могут быть достаточно простыми, если действуют на основе выявления ограниченного набора ключевых слов или жестко заданных правил. Но, разумеется, главные надежды связывают с чат-ботами, использующими искусственный интеллект и, в частности, способными обучаться в процессе диалога с человеком.  

А всегда ли с человеком? И тут я вспомнил свою гипотезу о развитии отношений между холодильником и унитазом. Действительно, если на той стороне появится говорящий робот, то на этой, на человеческой стороне, тоже может возникнуть идея переложить рутинный разговор на своего чат-бота, выполняющего по сути роль секретаря. Дать ему задание, скажем, заказать билет на самолет на нужные дату/время в требуемом диапазоне цен, обзвонив несколько авиакомпаний, и заняться другими делами. Если дело пойдет таким образом, то чат-боты начнут все больше общаться вместо нас - людей, а если они еще и станут достаточно умными, то неизвестно, до чего договорятся за нашей спиной.  :o
Евгений Крячко
Здравствуйте. Спасибо за улыбку "от унитаза" (хорошая заготовка для моих тем). Чат-боты не безопасная вещь,  как недавно выяснил робот  "ТАУ".  Засыпали судебными исками. Гугл хочет но не решается повторить. И"И" нет и не предвидится, банальной комбинаторикой проблему не решить. Вопрос в алгоритме "двойных стандартов". У них сильные программисты, но этот алгоритм из незнакомого им поля Высокотехнологичная Социология. Это тупик.