ЧЕГОНЕТ, Выпуск 1:
ЧЕЛОВЕК ИЛИ МАШИНА?
"Вероятно, нашу игру можно
подвергнуть критике на том основании,
что в ней преимущества в значительной
степени находятся на стороне машины..."
(Алан Тьюринг, "Могут ли машины мыслить")
Вышеприведенные слова сказаны (точнее, якобы сказаны) в 1950-м году британским математиком Аланом Тьюрингом по поводу его знаменитой "игры в имитацию", которая позже получила название "тест Тьюринга". В этом шуточном тесте человек получает ответы на свои вопросы в напечатанном виде от кого-то, кто прячется в другой комнате за стеной. По ответам нужно угадать, является собеседник человеком или машиной (в оригинале игры - мужчиной или женщиной).Подобные идеи бурно обсуждались в 60-е, когда казалось, искусственный интеллект вот-вот постучится в дверь, и потому все боялись спутать его с почтальоном. Казалось, нужно лишь описать грамматики, автоматизировать разбор слов и предложений, нечто аналогичное придумать и для сбора/анализа знаний - и вот он, искусственный собеседник.
Но шли годы, а ничего более впечатляющего, чем попугайская программа "Элиза" да забавная клеточная игра "Жизнь", в области AI как будто не появилось. Не появилось даже приличных автоматических переводчиков. Да что там говорить! - даже нормальных человеческих переводчиков не стало. Прочтите еще раз эпиграф:
"Вероятно, нашу игру можно подвергнуть критике на том основании, что в ней преимущества в значительной степени находятся на стороне машины"
На самом деле это русский перевод из московского издания 1960 года, опубликованный затем в Рунете в конце девяностых. В оригинале же у Тьюринга сказано абсолютно противоположное -
The game may perhaps be criticised on the ground that the odds are weighted too heavily against the machine. If the man were to try and pretend to be the machine he would clearly make a very poor showing.
Здесь имеется в виду, что человек в этой игре, наоборот, имеет преимущества перед машиной при тех условиях, которые задает Тьюринг в своем тесте (человеческий язык, человеческое мышление). Ведь если человека заставить изображать машину, он явно проиграет - будучи неспособен, например, быстро перемножить в уме пару семизначных чисел .
Однако я отвлекся. Интерес к проблеме, сформулированной Тьюрингом, снова возрос в 90-е годы. Во-первых, потому, что в 1990 г. некто Лебнер, известный борец за легализацию проституции, учредил Лебнеровскую премию, пообещав 100.000 долларов и золотую медаль тому программисту, чья программа пройдет тест Тьюринга. Помимо Гран-При, которого пока не получил никто, учреждена ежегодная премия в 2000 долларов и бронзовая медаль для того, чья программа, даже если и не прошла тест, то по крайней мере оказалась лучшей из представленных за год.
Но куда более интересно, что в 90-е с развитием Интернета оказалось возможно подойти к тесту Тьюринга с неожиданной стороны. В эпоху, когда мужчину не всегда можно отличить от женщины даже при длительном личном разговоре, аналогичная ситуация складывается и с отличием человека от машины.
В тесте Тьюринга были две неопределенности, которые в будущем стали двумя основными камнями преткновения исследований в области AI. Это "естественный язык" и "знания". Если взглянуть на эти вещи не с точки зрения абстрактных определений, а с точки зрения современного Интернета, можно заметить, что с годами мы действительно получили ситуацию, которая изложена в неправильном русском переводе статьи Тьюринга: "Преимущества в значительной степени находятся на стороне машины"!
Вспомните ломаный язык и потерянный синтаксис современных чатов. Стерильные псевдо-диалоги по ICQ без начала и конца, без "здравствуйте" и "до свиданья", без каких-либо деталей личной жизни. Приглядитесь к ним, и вы поймете, что именно так могли говорить интеллектуальные диалоговые системы еще в 60-е. Попади они в современный чат - может, их никто и не заметил бы?
Что касается знаний - как тут не вспомнить, что сбор персональных данных о пользователях Интернета компаниями типа DoubleClick стал больной темой именно в этом году. Боты могут отследить, какие сайты или даже разделы сайтов вы посещаете особенно часто, какие вещи покупаете. Для интернет-индустрии подобные данные - самый ценный товар, поскольку это позволяет создавать персональную рекламу с учетом привычек каждого отдельного человека. Насколько машины, наделенные такой базой данных, оказываются умнее людей уже сейчас, можно судить по словам британского специалиста по робототехнике Кевина Уорвика: "Мы работаем с сетью супермаркетов, которая ведет обширную базу данных о пятидесяти тысячах покупателей, в частности, о товарах, которые купил тот или иной человек. На основе собранной информации можно с большой точностью предсказывать, какие новые товары будут покупать люди. Причем это можно делать прежде, чем даже они сами задумаются об этом".
А теперь вспомните, насколько естественным стало для нас общение через Сеть. Если тот, на другом конце провода, знает наши вкусы и потакает им, подкидывает нужную нам информацию или просто является хорошим собеседником - часто ли мы задумываемся о том, машина это или человек? Наверное, мы могли бы заметить отличие по каким-то другим тестам, как герои Филипа Дика отличали андроидов. Но оказывается, для этого надо общаться как-то иначе - глядеть в глаза, например. Когда же мы общаемся короткими вопросами-ответами через Сеть, мы сами говорим на языке машин больше, чем они - на нашем.
Получается, что мы давно живем в ситуации "теста Тьюринга" - и еще не известно, с какой стороны стены.
ПРАКТИКА:
Все о тесте Тьюринга, включая его критику другими учеными, альтернативные тесты и даже советы по поводу того, как жульничать на тесте Тьюринга. Здесь же много ссылок на призеров Лебнеровской премии и на программы, которые считаются интеллектуальными.
Студент из Беркли Кевин Фокс выпустил в чаты AOL Instant Messenger (AIM) программу AOLiza, способную вести "псевдиалоги". Алгоритм ничем не отличался от классической "Элизы", созданной в 1966 году в МIT. Программа просто повторяет реплики собеседника в форме вопроса, либо выдает случайные фразы типа "как я тебя понимаю". Казалось бы, время таких игр давно прошло. Ан нет! За две недели Фокс записал более 30 диалогов разных людей с "тупой" программой. Оказывается, чаты AIM оказались лучшим местом обитания для Элизы. Ранее программу легко распознавали по повторам, не очень верному построению фраз и неожиданным сменам темы разговора. А в чатах такой тупой язык оказался вполне приемлем! Кроме того, в болтовне через AIM складывается и особая психологическая среда, наиболее пригодная для разговоров с роботом: тысячи людей включаются разговоры с незнакомцами только для того, чтобы поговорить, не важно даже с кем и о чем. Типичная, кстати, ситуация для тысяч людей, проводящих вечера в обычных барах и клубах. После пары литров пива некоторые даже с Медными всадниками разговаривают! Однако руководство AOL уже обеспокоено подобными подменами людей за роботов - ведь клиентам обещают "радость человеческого общения".
В тех же чатах AIM был недавно обнаружен виртуальный робот Biz. В отличие от Элизы, он не просто повторяет слова, а составляет базу данных из ответов пользователя. И может в конце концов сказать о вас такое, в чем вы сами себе боялись признаться. Опять же, старинный алгоритм "Психоаналитика" плюс современные чаты - это сила.
Проект Generic Artificial Consciousness еще более грандиозен: она использует для строительства огромной базы знаний весь Интернет. Любой пользователь, заходя на сайт, может предложить простое логическое утверждение типа "Небо голубое" или "Вода мокрая". Кроме того, посетитель должен подтвердить или опровергнуть ряд утверждений, подброшенных ранее другими. Чего ради? Тем посетителям, кто загонит в GAC достаточно "крупиц знаний", обещают часть акций компании, которая будет образована после создания базы знаний. то вполне резонно - это же частично твой интеллект! Авторы полагают, что для создания более-менее умной системы им понадобится около миллиарда таких "крупиц истины", которые будут собираться в течение 10 лет.
Компания Artificial Life, которая имеет отделение и в России, уже сейчас продает так называемых "Вирботов". Эти роботы, во-первых, ведут действительно очень натуральные диалоги, а во-вторых, небесполезны: они выполняют роль "гуманизаторов" для интерактивных программ сетевого поиска, обучения, электронной торговли и т.п. Представьте, что вы запутались с расписаниями на вокзале и обратились к девушке в окошке справочной службы - примерно такой сервис предлагает Artificial Life. Я лично обсудил с одной из искусственных женщин из Artificial Life вопрос о том, почему она не говорит по-русски. Таких умных ответов мне не давали даже девушки в московском метро!
В чем-то Линда больше похожа на человека, по сравнению с роботами из Artificial Life. А в чем-то - меньше. На вопрос о происхождении она выдает целую историю о разведенных родителях, а не просто справку о компании. Зато с языками у нее проблемы. Та же компания Exempo создала мистера Клина, эксперта по всевозможной чистке. А также виртуального пса Джека - который, как ни странно, тоже разговаривает. Неплохая ситуация для теста Тьюринга: собеседник на том конце провода может оказаться не только машиной, но и собакой.
Появившийся летом этого года питерский поисковый сервис InternetHelp значительно отличается от уже существующих систем тем, что предлагает "очеловеченный" интерактивный диалог. Очень похоже на Artificial Life. Запросы на поиск InternetHelp формулируются в простой разговорной форме, без определения ключевых слов и специального языка запросов. В течение нескольких минут пользователь получает ответ со ссылками на web-страницы, содержащие информацию по интересующей его теме. В ходе диалога запрос можно детализировать, а по окончании сеанса запись диалога высылается пользователю по электронной почте. Отличный полигон для теста Тьюринга - пробуйте угадать, кто с вами разговаривает на этом сайте - люди или машины? Конечно, вы можете сразу "купиться" на заявления о том, что ответы дают "специально обученные операторы". Однако помните: мы живем в век рекламы, и когда нам со всех экранов говорят, что Пепси-Лайт содержит "ноль калорий", это чистейшая ложь. Полагаться можно только на собственный опыт!
Как утверждают циники-атеисты, программа этого робота, выдающего псевдо-осмысленные тексты, не превышает и десятка строк, причем состоит из самых банальных команд и операторов. Однако это не помешало создать вокруг робота загадочную кибер-секту РоСД(TM), члены которой поклоняются Роботу и отправляют наводящие ужас обряды. Среди людей, которые серьезно свихнулись на этом поклонении - такие известные личности, как Аполлинария Тумина. Мораль: искусственному интеллекту вовсе не нужно проходить тест Тьюринга для того, чтобы ему поклонялись люди.
Как не удерживайся от упоминания игровых сайтов, а все-таки надо признать: благодаря огромной популярности игр и интенсивности развития этой индустрии искусственный интеллект развивается здесь быстрее, чем в какой-либо другой области. Правда, для проверки его способностей используется отнюдь не тест Тьюринга, в совсем другой тест: кто кого убьет. А если вспомнить, что человека вполне успешно убивают даже вирусы, становится понятно - "убийственный" искусственный интеллект вовсе не обязан быть похож на человеческий, чтобы превосходить человека. В мирах Unreal обитают именно такие создания. Но о нечеловеческих формах жизни в Сети - в другой раз.
Леха Андреев,
lexa@spb.cityline.ru
www.fuga.ru
17.11.00