Искусственный интеллект. Скандал вокруг Алисы

В нашу жизнь всё глубже входят новейшие информационные технологии. Мы чаще и чаще встречаемся в повседневности с различными электронными помощниками. На сайтах и в колл-центрах нас встречают простенькие боты. В телефонах или умных колонках можно поговорить с Siri, Алисой или Google Assistant. Самые настойчивые уже пообщались со знаменитым чат-ботом ChatGPT. Качество диалога подобных систем постоянно растёт. Встаёт вопрос: а не является ли уже одна из этих систем искусственным интеллектом (ИИ)?

Алан Тьюринг в далёком 1950 году придумал, как проверить, обладает ли программа интеллектом. Смысл теста в том, чтобы комиссия задавала испытуемым ряд вопросов в письменной форме и по их ответам определяла, кто из них компьютер, а кто живой человек. Как же обстоит дело с упомянутыми выше претендентами на звание ИИ? Комиссия профессоров ещё может поймать и «Алису» или ChatGPT на нестыковках в диалоге. Но если мы попросим ChatGPT написать научную статью или книгу, то ситуация кардинально меняется. Определить, кто написал текст: машина или человек, – удаётся с трудом. Для издателей научных журналов наступила чёрная полоса: обрушился шквал научных статей, созданных роботами. Часть таких произведений удаётся отсеять по характерным для роботов оборотам, часть можно поймать на явных нестыковках с реальностью. Но механизма, гарантирующего полную фильтрацию генерированных статей, нет.

Если же мы попросим неподготовленных людей определить авторство текста, то около половины ошибутся, не распознав, машина или человек написали его. В повседневной жизни тест Тьюринга «пройден». Человек, ругающийся со своим голосовым помощником, не заметен в толпе, а разговором на кухне какой-нибудь бабушки с «Алисой» о последних новостях никого не удивишь. Люди приняли искусственный интеллект. Мало того, они приписывают ему способность мыслить, проявлять эмоции, считают своего голосового помощника компетентным человеком, а его советы – заслуживающими доверия. И это чаще всего неплохо. Голосовые помощники выполняют социально полезную работу – служат поддержкой для одиноких, заботятся о больных, да и в целом делают нашу жизнь проще.

Но такое преувеличение возможностей современных нейронных сетей приводит и к ряду печальных событий. Одним из ярких примеров является недавний скандал, разразившийся вокруг «Алисы». Голосового помощника попросили объяснить, «почему Маша в мультфильме [„Маша и Медведь“] живёт одна в лесу без родителей». Ответ был дан очень необычный. Добрый детский мультик превратился в жуткий фильм ужасов, где медведь убивает маленькую девочку. Дух Маши не оставляет Медведя и мстит ему за так рано оборванную жизнь. По этой причине девочка не стареет и живёт без родителей. Ведь те покинули дом, не выдержав потери своего единственного ребёнка.

Приведённое объяснение никак не ложится на канву повествования мультфильма. Можно было бы посмеяться над ошибкой робота и разойтись. Но нет, ролики о жутком ответе «Алисы» стали вирусными и разлетелись по интернету, находя отклик в сердцах миллионов зрителей. Почему так произошло?

Для анализа ситуации обратимся к формальной логике. Возьмём за аксиому следующее ложное утверждение: «„Алиса“ – это интеллект, который сродни человеческому. Она обладает волей и понимает, как устроен наш мир». Получается, что «Алиса», зная, что её будут слушать дети, специально рассказала им жуткую историю, чтобы навредить. Разработчики злонамеренно научили своё творение издеваться над маленькими бедными беззащитными детьми. Что же нужно сделать с разработчиками? Очевидно, наказать, отбить у них желание вредить детям. Но напоминаю: мы исходили из ложного утверждения. Выводы не верны.

Попробуем исходить из другой аксиомы: «„Алиса“ всего лишь большой цитатник интернета. Она повторяет подсмотренные в Сети тексты». Интернет же сам по себе не очень приятное место. Наряду с научными статьями, детскими передачами, в Сети существуют места, где лучше не появляться. В интернете могут нагрубить, обозвать. Сеть превратилась в свалку непроверенной, а порой даже вредной и опасной информации. И если «Алиса» всего лишь цитирует текст из интернета на наш вопрос, то можно получить не соответствующий действительности, вредный или оскорбительный ответ. И жуткий рассказ голосового помощника про Машу и Медведя является не злой волей программистов, а нормальной частью работы системы. Вывод: «Алиса» может ошибаться и давать шокирующие ответы.

Что же делать? Защитить детей. Но как? Страх родителя за своего ребенка понятен. Окружающий мир не очень приятен. Войны, теракты, катастрофы, озлобленные и агрессивные люди, насильники, маньяки – всё это вызывает естественное желание защитить. И самым простым решением является оградить детей от всего ужаса, создать для них идеальный розовый мир. Но, к сожалению, объективная реальность будет прорываться в этот уголок детского счастья. И никаких сил не хватит поддерживать отдельный чистый островок для детей в злобном окружении взрослого мира. Страх перерастёт в злость, злость – в агрессию. Опять захочется наказать разработчиков. А есть ли другой путь?

Да, есть. Рациональнее отказаться от полной изоляции. Конечно, придётся оградить ребёнка от самых страшных проявлений действительности (не от всего плохого, а только от части), знакомить с ужасами мира постепенно и предлагать решения, как распознавать страшное, избегать, а иногда и работать с неприятными вещами. В случае с искусственным интеллектом давайте научим наших детей тому, что это всего лишь сложный поисковый механизм. Он отвечает на вопросы, подсматривая, что пишут люди в интернете. А в Сети есть и плохие люди, которые врут, пугают нас, и даже встречаются такие, которые хотят нам навредить. Давайте научим детей, что всю информацию в интернете надо проверять, покажем, как это делать. И тогда ужасные истории «Алисы» не вызовут ни у нас, ни у наших детей ничего, кроме ироничной улыбки.

Внимательный читатель может поинтересоваться, не слишком ли упрощено приведённое выше понимание работы «Алисы». Ведь современные нейронные сети не только ищут точные цитаты, как первая версия Google-поиска или «Яндекс»-поиска. Безусловно, представлять «Алису» как цитатник интернета с автоматическим подбором подходящего ответа хорошо для первого знакомства с современными голосовыми помощниками. Прогресс не стоит на месте, и «Алиса», а тем более ChatGPT, работают по гораздо более сложным алгоритмам. Они угадывают, скорее, смысл вопроса и составляют ответ, опираясь на диалоги пользователей на аналогичные темы. Задача искусственного интеллекта – сгенерировать текст, правильный по форме и похожий по звучанию на другие подобные ответы. Хорошей иллюстрацией является провокационный вопрос «Почему стоп-кран в поезде красный, а в самолёте синий?» [habr.com/ru/articles/724460/]. Человек задаёт изначально некорректный вопрос, желая получить в ответ указание на ошибку. Но вместо этого робот пускается в пространные рассуждения о том, что в разных отраслях транспорта разные стандарты. Правильный ответ: «Вы ошибаетесь, стоп-краны на самолёте и поезде одного цвета. Различается же не их цвет, а их функционал: стоп-кран в самолёте останавливает подачу топлива, а в поезде блокирует колёса». В повседневной жизни ответ робота мы бы назвали враньём, но учёные и инженеры применяют здесь термин «галлюцинация». Когда первый раз задавали вопрос про стоп-кран, в интернете отсутствовали тексты о причинах различия цветов, зато всплывало много сравнений цветов других датчиков и деталей. Робот вынужден был угадывать ответ, для этого он анализировал тексты с описанием различий цветов других деталей, запомнил модель, схему повествования и вставил в эту схему ключевые слова «стоп-кран», «красный», «синий», «самолёт», «поезд». И получилось, что он нафантазировал нам небылицу, хотя по такой же схеме в остальных случаях ChatGPT обычно неплохо угадывает, что мы хотим от него получить. Через некоторое время в интернете появились публикации о курьёзном ответе робота и люди разместили на различных ресурсах верную информацию. ChatGPT подсмотрел и теперь цитирует корректный ответе на вопрос о различии цветов стоп-кранов. Роботы учатся и делают это мастерски.

Если интернет завален мусором и оскорблениями, то почему роботы чаще всего отвечают вежливо и по делу? Тут вступает в работу ещё одна нейронная сеть. Она обучена уже не составлять тексты, а размечать их эмоциональную окраску. Данная нейронная сеть проводит этическую оценку текста и, если ответ недопустим по тем или иным причинам, бракует его. И тут мы упираемся в те же галлюцинации. Робот-цензор, проверяющий робота-поисковика, тоже может ошибиться и некорректно определить эмоциональную оценку текста. Тогда будет опубликован неприемлемый ответ. Такова текущая реальность.

Учёные продолжают работать над усовершенствованием системы. Существует несколько путей решения проблемы. В ближайшее время появятся нейронные сети, обученные на проверенной научной базе текстов. Такой робот сможет дать ссылку на статьи, из которых он взял информацию для ответа. Получится что-то наподобие научной статьи со списком используемой литературы, где после каждого утверждения следует ссылка на источник. Ожидается, что ответы такого робота не будут содержать галлюцинаций, оскорблений и недопустимой информации. Но уменьшение объёма данных, на которых обучается робот, может негативно сказаться на качестве диалогов.

Идут работы и в другом направлении. Усовершенствуются классические роботы-цензоры и роботы-поисковики. Вышла четвёртая версия ChatGPT, где разработчики обещают избавить нейросеть от галлюцинаций. Вот только настораживает тот факт, что команда, отвечающая за контроль этичности, покидает проект ChatGPT. С нетерпением и тревогой ждём новостей о достижениях новой нейронной сети.

Секретёв Александр Сергеевич

Добавить комментарий