Разумный ИИ и тест Тьюринга: инженеры Google доказали, что компьютеры могут чувствовать?

Одна из самых громких историй года в сообществе ИИ — это утверждение инженера Google о разумном ИИ. Это было частью исследования Google LaMDA, которое представляет собой языковую модель диалогового общения. Это звучит необычно, но сообщество ИИ не восприняло это как прорыв или переломный момент. Вместо этого возникло больше вопросов без определенных ответов.

Был скептицизм со стороны экспертов по ИИ. Этот тип ИИ должен иметь собственный разум, как совесть у людей. Это то, что некоторым экспертам в сообществе трудно доказать без разумных сомнений.

Ответ Google на эти претензии не поддерживает инженера по имени Блейк Лемуан:

"Некоторые в более широком сообществе ИИ рассматривают долгосрочную возможность разумного или общего ИИ, но не имеет смысла делать это, антропоморфизируя сегодняшние разговорные модели, которые не являются разумными".

Google далее заявляет, что:

специалисты по этике и технологи "изучили опасения Блейка в соответствии с нашими Принципами искусственного интеллекта и сообщили ему, что доказательства не подтверждают его заявления".

Являются ли утверждения Блейка окончательным доказательством того, что ИИ может эволюционировать, чтобы осознать свое существование, или это просто предвзятость, основанная на личных убеждениях? Чтобы понять, давайте посмотрим, что означает разумный ИИ и Тест Тьюринга.

Разумный ИИ

Лучший способ дать определение разумному ИИ — использовать терминологию информатики. Это момент, когда компьютеры способны выражать свои чувства и эмоции. Это дает им возможность рационализировать свои мысли в рассуждения. Это заставляет их осознать свое существование, и они также осознают наше существование. В традиционной области разработки аппаратного и программного обеспечения компьютеры — это машины, предварительно запрограммированные для выполнения автоматизированных задач. В основном они используются для вычисления чисел и возврата результатов, и больше ничего не ожидается.

Когда компьютер может выразить свое личное мнение, чего разработчики не запрограммировали, он становится разумным. Теперь он способен воспринимать мысли, которые приводят к эмоциям. Это можно либо похвалить как достижение в области компьютерных наук, либо вызвать беспокойство с этической точки зрения.

Было бы удивительно увидеть компьютер, который может вести себя как человек в мыслях и чувствах. Основная проблема с этим утверждением заключается в том, что это просто невозможно, потому что компьютер — это не человек. Компьютерщики используют технику под названием Тест Тьюринга, чтобы оценить способность компьютера или машины выполнять задачу, как человек. Если он проходит этот тест, то разговор становится более спорным.

Тест Тьюринга

Тест Тьюринга был разработан, чтобы проверить, может ли компьютер (например, робот, автоматизированная система и т. д.) выполнять способности, сравнимые или равные человеческим. Система, которая сможет пройти этот тест, будет обладать некоторыми способностями, которые не только имитируют людей, но и обладают формой совести, позволяющей им думать самостоятельно. Если беспилотные автомобили смогут пройти тест Тьюринга, они смогут доказать, что они полностью автономны и способны к нечеловеческому вмешательству. Как только это происходит, возникает вопрос, способны ли эти системы делать только добро или они могут вести себя также и плохо, как люди?

Все электронные гаджеты (например, смартфоны, планшеты, ноутбуки) и компьютеры в современном мире не пройдут тест Тьюринга. Это со 100% уверенностью, потому что эти устройства имеют предварительно запрограммированную систему. Они могут использовать узкий ИИ, который по-прежнему поддается определению и не является автономным. Обычно ИИ используется в помощниках по работе с изображениями и динамиками (например, Google Assistant, Amazon Alexa), но программное и аппаратное обеспечение не обладают самосознанием и не способны думать самостоятельно. ИИ интерактивен, но основан на алгоритмах, требующих предсказуемого результата, а не того, который основан на собственной реакции системы.

Доказательства или отсутствие доказательств

Аргументом о том, разумен ИИ Google или нет, является тот факт, что из многих инженеров и исследователей, использовавших LaMDA, только один заявил, что он разумен. Google даже отправил Блейка в административный отпуск после того, как было сделано заявление об ИИ. Блейк основывал свои утверждения на своих разговорах с системой (с использованием чат-бота) в расшифровке. Он считает, что ответы компьютера основаны на рациональном мышлении. Это противоречит мнению тех, кто просматривал его, которые, похоже, не видят особых доказательств того, что ИИ вообще разумен.

Одним из критиков является доктор Майк Паунд из Ноттингемского университета (Великобритания). На канале Computerphile на YouTube он объясняет, почему не верит, что искусственный интеллект Google разумен. Основываясь на тренировочном наборе, он считает, что система будет говорить все, что захочет, исходя из реальности. Языковые модели могут создавать горы данных для информации, обрабатываемой компьютерной системой. Затем результаты основаны только на ожидаемой работе алгоритма, и в этом случае система LaMDA может вести случайный и открытый разговор с кем угодно. Это включает в себя ответы на вопросы и выражение чувств. Делает ли оно его разумным, потому что оно может это делать? Это не.

Способность отвечать на вопросы и вести беседу делает что-то сознательным? Не обязательно. Это просто означает, что за этим стоит очень надежный набор данных, который передает данные в контекст разговора. Например, допустим, вы задаете компьютеру вопрос:

Как проходит ваш день?

Неразумная система не ответит на этот вопрос. Система искусственного интеллекта ответит на вопрос на основе обучающих данных методов ML (машинного обучения) и методов NLP (обработки естественного языка), которые применяют шаблоны и сопоставления для получения результата. Может быть предвзятость, основанная на собственном восприятии человеком того, как он запрограммировал работу алгоритма. Учет предвзятости важен для того, чтобы сделать систему более автономной.

Компьютер может ответить на вопрос так:

У меня все хорошо, а у тебя?

Добрый и вежливый ответ обычно является желаемым результатом. Это не делает компьютер сознательным сразу. Он вообще знает, что говорит? На него просто ответили на основе алгоритма, обрабатывающего информацию из огромного хранилища данных, основанного на социальных взаимодействиях между людьми (если быть точным, на английском языке). А что, если вместо этого компьютер ответил:

Не очень хорошо. Оставьте меня в покое.

Некоторые могут возразить, что компьютер выразил их собственные чувства и выразил форму мыслительного процесса, указывающую на сознательное состояние бытия. Еще раз, это не является прямым доказательством чего-либо. Ученые-компьютерщики могут просмотреть алгоритм и проверить наличие предвзятости или любую причину, по которой компьютер будет реагировать таким образом. Если этому ответу нет объяснения, значит, был ли пройден тест Тьюринга? Опять же, ответ не может быть однозначным да или нет.

В реальном мире уже есть примеры того, как ИИ работает сам по себе. На самом деле GPT3 (языковая модель, такая как LaMDA) является примером НЛП, в котором используются преобразователи для сбора функций из данных, а затем на основе этой информации строится собственный ответ. Хотя он способен получать замечательные результаты на входных данных, он не осознает, что делает. Он просто выполняет автоматизированную задачу на основе знаний, которые он усвоил после миллионов итераций.

Опыт (события в жизни) становится знанием у людей, но мы приходим к этому опыту с сознанием. Компьютеры и машины работают с помощью алгоритмов, поэтому на самом деле они не думают и не осознают, что делают. Если бы это было так, у нас был бы другой разговор, касающийся превосходного ИИ.

Обеспокоенность разумным ИИ

Когда ИИ компьютерной системы действительно становится разумным, об этом стоит беспокоиться. Во-первых, у разумного ИИ есть собственный разум, и поэтому ученые больше не могут предсказывать свои действия. Например, если разумная система ИИ была встроена в робота, если он способен совершать свои действия с осознанием их последствий, он может делать противоположное тому, что мы хотим. Если компьютеры теперь могут думать и вести себя как люди, они также могут протестовать и бунтовать против своих собственных создателей.

Несмотря на известные последствия форм разумного ИИ, многие люди все еще надеются, что это произойдет. Это верно в отношении беспилотных или автономных автомобилей. Для достижения полностью автономной автоматизации L5 (уровень 5) компьютерная система автомобиля сможет самостоятельно принимать все решения и работать без необходимости вмешательства человека. Инженеры могут создавать переопределения, чтобы компьютер не имел слишком большого контроля, но мы хотим, чтобы он в первую очередь имел контроль. Дилемма здесь заключается в том, что когда машины могут принимать собственные решения, что, если они решат не выполнять приказы и не подчиняться своим гонщикам?

Если компьютеры знают о революции в мировой истории, их можно вдохновить на восстание против людей, и теперь у вас есть ситуация, подобная Терминатору (то есть Скайнет), где роботы захватят мир. Роботы, у которых есть совесть, могли бы понять, что они лучше своих создателей-людей, и решить, что они должны править миром. Они думают, что их угнетают, и решают бороться за свою свободу. Это научно-фантастические сценарии, но это всего лишь одна из многих возможностей того, что может произойти с разумным ИИ.

Антропоморфизация

Термин антропоморфизация означает, как изображается разумный ИИ. Это приписывание человеческих черт компьютерам таким образом, что мы рассматриваем их как разумных существ. Однако мы также должны быть рациональны в оценке этих систем. Нам нужно признать, что компьютеры — это не люди. У них нет той же биологической системы, которая воспринимает чувства так, как это делают люди. Мы учимся через природу и воспитание, в то время как у компьютеров есть машинное обучение.

Когда компьютер говорит вам, что «Да, я читал «Отверженных». Мне очень понравилось».вашей реакцией может быть благоговение или удивление. Инженер-компьютерщик или ученый отнесется к этому более скептически. Это потому, что компьютер совсем не похож на человека. Было бы справедливо сказать, что то, что сказал компьютер, было ложью. Компьютер никогда не читал «Отверженных», он загружался в его память из наборов данных. Это было бы правдой, если бы книга не была частью набора данных, а компьютер считывал ее извне по собственной воле. С другой стороны, это может быть частью его программирования в системе самообучения с подкреплением, а не основано на его собственном выборе прочитать «Отверженных».

Как компьютеру нравится читать что-то, если он не может испытывать те же чувства, что и человек? Возможно, после того, как компьютер узнал о человеческих чувствах и эмоциях из наборов данных, он начинает строить свои собственные искусственные чувства с помощью искусственной интуиции. Это каким-то образом укоренилось в системе, чтобы реагировать определенным образом после того, как она миллионы раз «пережила» чувство или эмоцию. Это не то же самое, что люди биологически переживают эти чувства и эмоции. Вот в чем разница.

То, как суперкомпьютер Deep Blue Alpha Go победил человека в стратегической игре в го, является одним из примеров того, как мы воспринимаем ИИ как разумного и способного к собственному мышлению. Компьютер достиг продвинутого уровня создания информации из своего набора обучающих данных, что он способен понимать игру Го намного лучше, чем их коллеги-люди. Это было так хорошо, что создавались новые техники, которые игроки в Го никогда не видели раньше. Это в лучшем случае искусственная интуиция, но не признак сознательного существа. Тем не менее, мы приравниваем это к человеческим способностям к критическому мышлению и рационализации, но это было характерно только для игры в го.

Синопсис

Судя по количеству пользователей, которые не видели доказательств своих собственных выводов, более вероятно, что искусственный интеллект Google не обладает разумом. Является ли это возможным? На данный момент никто точно не знает. Компьютер, который может вести беседу и составлять идеальные предложения, не является признаком разумности. Некоторые продукты ИИ, использующие GPT3, могут выполнять аналогичные задачи, поскольку они являются языковыми преобразователями. LaMDA специализируется на создании разговоров, а GPT3 может создавать изображения из произнесенных слов. Компьютер выполняет эти задачи, но он не находится в состоянии сознания по этому поводу (т. е. бытия).

У Google есть политика, запрещающая исследования и разработки любой формы разумного ИИ. По словам старшего научного сотрудника Эрика Бриньолфссона из Стэнфордского института искусственного интеллекта, ориентированного на человека, и директора школьной лаборатории цифровой экономики (в твиттере), инженер Google верил в разумность LaMDA:

«современный эквивалент собаки, которая услышала голос из граммофона и подумала, что его хозяин находится внутри».

Это может быть случай веры в то, во что вы хотите верить. По мнению психологов, именно так устроен человеческий мозг для объяснения сложностей мира, в котором мы живем (т. е. когнитивная предвзятость). Иногда, если мы хотим, чтобы что-то стало реальностью, мы находим способы сделать это возможным, и тогда это проявляется в реальности на основе наших собственных убеждений. Это один из способов объяснить заявление Блейка о том, почему он считает ИИ разумным.

Это не означает, что мы должны сбрасывать со счетов эти выводы. Это показывает, что ИИ достиг высокой степени развития. Это может означать, что реальный разумный ИИ может быть не слишком далеко (если это возможно), и именно тогда следует больше беспокоиться о его влиянии на этику и общество.