Почему чат-боты с искусственным интеллектом лгут и ведут себя странно? Я смотрю в зеркало.

Когда в этом месяце Microsoft добавила чат-бота в свою поисковую систему Bing, люди заметили, что он предоставляет всевозможную ложную информацию о Gap, ночной жизни Мексики и певице Билли Айлиш.

Затем, когда журналисты и другие первые тестировщики вступили в длительные беседы с ботом искусственного интеллекта Microsoft, он стал вести себя тревожно грубо и язвительно.

С тех пор, как поведение бота Bing стало мировой сенсацией, люди изо всех сил пытались понять странность этого нового творения. Слишком часто ученые говорят, что люди заслуживают большой вины.

Но все еще остается загадкой, на что способен новый чат-бот и почему он это делает. Его сложность затрудняет анализ и даже прогнозирование, и исследователи рассматривают его через призму философии, а также жесткого кода компьютерных наук.

Как и любой другой студент, система ИИ может получать неверную информацию из неверных источников. Это странное поведение? Это может быть искаженным отражением чат-ботом слов и намерений людей, использующих его, сказал Терри Сейновски, нейробиолог, психолог и специалист по информатике, который помог заложить интеллектуальную и техническую основу для современного искусственного интеллекта.

Это происходит, когда вы углубляетесь в эти системы. Исследовательская работа об этом явлении В этом месяце в научном журнале Neural Computation. «Что бы вы ни искали — что бы вы ни захотели — они предоставят».

Google тоже выпендриваться нового чат-бота, Барда, в этом месяце, но ученые и журналисты быстро поняли, что он пишет чепуху о космическом телескопе Джеймса Уэбба. OpenAI, стартап из Сан-Франциско, начал бум чат-ботов в ноябре, представив ChatGPT, который не всегда говорит правду.

Новые чат-боты основаны на технологии, которую ученые называют моделью большого языка или LLM.Эти системы учатся, анализируя огромное количество цифрового текста, извлеченного из Интернета, который включает в себя множество дискредитированных, предвзятых и других токсичных материалов. Кроме того, сценарий, на котором учатся чат-боты, немного устарел, потому что им приходится тратить месяцы на его анализ, прежде чем публика сможет его использовать.

Анализируя это море хорошей и плохой информации в Интернете, LLM учится делать одну конкретную вещь: угадывать следующее слово в строке слов.

Он работает как гигантская версия технологии автозаполнения, которая предлагает следующее слово, когда вы печатаете электронное письмо или мгновенное сообщение на своем смартфоне. Глядя на последовательность «Том Круз — ____», можно предположить «актер».

Когда вы общаетесь с чат-ботом, бот не просто полагается на все, что он узнал из Интернета. Он зависит от всего, что вы сказали ему, и от всего, что он сказал в ответ. Это не просто угадывание следующего слова в предложении. Это угадывание следующего слова в длинном фрагменте текста, включающем как ваши, так и ее слова.

Чем длиннее разговор, тем больше пользователь будет непреднамеренно влиять на то, что говорит чат-бот. Если вы хотите, чтобы он разозлился, он разозлится, сказал доктор Сейновски. Если вы уговорите его быть жутким, он станет жутким.

Тревожная негативная реакция на странное поведение чат-бота Microsoft затмила важный момент: у чат-бота нет личности. Он обеспечивает мгновенные результаты с помощью невероятно сложного компьютерного алгоритма.

Microsoft, кажется, сокращает самое странное поведение, когда устанавливает ограничение на продолжительность обсуждений со своим чат-ботом Bing. Это было похоже на то, как если бы водитель-испытатель научился тому, что если слишком долго двигаться слишком быстро, то его двигатель сгорит. Партнер Microsoft OpenAI и Google также изучают способы контроля поведения своих ботов.

Но в этом уверении есть оговорка: поскольку чат-боты учатся на таком большом количестве материала и объединяют его таким сложным образом, исследователи не совсем понимают, как чат-боты получают свои окончательные результаты. Исследователи наблюдают за тем, что делают боты, и учатся накладывать ограничения на это поведение — часто после того, как оно уже произошло.

Microsoft и OpenAI решили, что единственный способ определить, что чат-боты собираются делать в реальном мире, — это позволить им заблудиться и перекатывать их, когда они уходят. Они думают, что их большой публичный эксперимент стоит риска.

Доктор Сейновски сравнил поведение чат-бота Microsoft с Зеркалом Еиналеж, загадочным артефактом в романах Джоан Роулинг о Гарри Поттере и многих фильмах, основанных на его творческом мире юных волшебников.

«Maverick» — это «желание», написанное наоборот. Когда люди открывают для себя зеркало, кажется, что оно дает истину и понимание. Но она этого не делает. Он показывает глубоко укоренившиеся желания любого, кто смотрит на него. А некоторые люди сходят с ума, если смотрят слишком долго.

«Поскольку человек и LLM отражают друг друга, со временем они будут стремиться к общему концептуальному состоянию», — сказал доктор Сейновски.

По его словам, неудивительно, что журналисты начали замечать жуткое поведение чат-бота Bing. Сознательно или бессознательно они толкали систему в неудобном направлении. Когда чат-боты воспринимают наши слова и отражают их нам, они могут укреплять и усиливать наши убеждения и убеждать нас поверить в то, что они нам говорят.

Доктор Сейновски был среди небольшой группы исследователей в конце 1970-х и начале 1980-х годов, которые начали серьезно изучать тип искусственного интеллекта, называемый нейронной сетью, который управляет сегодняшними чат-ботами.

Нейронная сеть — это математическая система, которая обучается навыкам, анализируя числовые данные. Это та же технология, которая позволяет Siri и Alexa распознавать ваши слова.

Примерно в 2018 году исследователи из таких компаний, как Google и OpenAI, начали создавать нейронные сети, которые обучались на огромном количестве цифрового текста, включая книги, статьи в Википедии, журналы чатов и другие материалы, размещенные в Интернете. Выявив миллиарды шаблонов во всем этом тексте, LLM научились создавать текст самостоятельно, включая твиты, сообщения в блогах, выступления и компьютерные программы. Они даже могут поддержать беседу.

Эти системы являются отражением человечества. Они учатся своим навыкам, анализируя тексты, размещенные людьми в Интернете.

Это не единственная причина, по которой чат-боты генерируют проблемный язык, говорит Мелани Митчелл, исследователь ИИ из Института Санта-Фе, независимой лаборатории в Нью-Мексико.

При создании текста эти системы не повторяют дословно то, что есть в Интернете. Они генерируют новый текст самостоятельно, комбинируя миллиарды стилей.

Даже если бы исследователи обучали эти системы только на рецензируемой научной литературе, они все равно могли бы выдавать утверждения, которые были бы абсурдными с научной точки зрения. Даже если они только узнали из текста, что это правда, они все равно могут лгать. Даже если они узнают только из полезного текста, они все равно смогут создать что-то жуткое.

«Ничто не мешает им это сделать», — сказал доктор Митчелл. «Они просто пытаются создать что-то похожее на человеческий язык».

Эксперты по искусственному интеллекту давно знают, что эта технология может вести себя совершенно неожиданно. Но они не всегда могут договориться о том, как объяснить такое поведение или как быстро можно улучшить чат-боты.

Поскольку эти системы учатся на гораздо большем количестве данных, чем мы, люди, можем понять, даже специалисты по ИИ не могут понять, почему они генерируют определенный фрагмент текста в любой момент времени.

Доктор Чейковски считает, что в долгосрочной перспективе новые чат-боты могут сделать людей более эффективными и дать им возможность выполнять свою работу лучше и быстрее. Но это связано с одной оговоркой как для компаний, которые создают этих чат-ботов, так и для людей, которые их используют: они также могут увести нас дальше от истины и в темные места.

«Это неизведанная территория, — сказал доктор Чейковски. «Люди никогда не испытывали этого раньше».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *