Техасский университет в Остинском колледже гуманитарных наук и Анне Аванова, Массачусетского технологического института (MIT) Кембридж/Остин (США), 25 июня (разговор), когда вы читаете такое предложение, ваш прошлый опыт говорит вам, что Это написано мышлением, чувствуя себя человеком. И, в этом случае, действительно существует человеческое набор этих слов: [Привет, там!] Но в наши дни некоторые предложения, которые кажутся удивительно человеческими, на самом деле генерируются системами искусственного интеллекта, обученными огромным количествам человеческого текста.

Люди настолько привыкли предполагать, что беглый язык исходит от мышления, чувствуя себя человеком, что свидетельствует об обратном, может быть трудно обернуть голову. Как люди могут ориентироваться в этой относительно неизведанной территории? Из-за постоянной тенденции ассоциировать выражение бегства со свободным мышлением, это естественно, но потенциально вводит в заблуждение, чтобы думать, что если модель ИИ может выразить себя бегло, это означает, что она думает и чувствует себя так же, как люди.

Таким образом, возможно, неудивительно, что бывший инженер Google недавно утверждал, что система ИИ в Google имеет чувство собственного самостоятельного, потому что она может красноречиво генерировать текст о своих предполагаемых чувствах. Это событие и последующее освещение в СМИ привели к ряду справедливо скептических статей и постов о утверждении, что вычислительные модели человеческого языка являются разумными, что означает мышление и ощущение и испытывать.

Вопрос о том, что это будет означать для того, чтобы модель ИИ была разумной, сложный (см., Например, наш коллега), и наша цель здесь не в том, чтобы урегулировать его. Но как языковые исследователи, мы можем использовать нашу работу в области когнитивной науки и лингвистики, чтобы объяснить, почему людям слишком легко попасть в когнитивную ловушку мышления, что сущность, которая может свободно использовать язык, является разумным, сознательным или умным.

16
Использование ИИ для генерации человеческого языка

Текст, сгенерированный такими моделями, как Lamda Google, может быть трудно отличить от текста, написанного людьми. Это впечатляющее достижение является результатом многолетней программы по созданию моделей, которые генерируют грамматический, значимый язык.

Ранние версии, начиная с 1950-х годов, известные как модели N-грамма, просто подсчитали случаи конкретных фраз и использовали их, чтобы угадать, какие слова могут возникнуть в определенных контекстах. Например, легко узнать, что «арахисовое масло и желе»-более вероятная фраза, чем «арахисовое масло и ананасы». Если у вас достаточно английского текста, вы увидите фразу «арахисовое масло и желе» снова и снова, но, возможно, никогда не увидите фразу «арахисовое масло и ананасы».

Сегодняшние модели, наборы данных и правил, которые приближаются к человеческому языку, отличаются от этих ранних попыток несколькими важными способами. Во-первых, они обучаются по существу по всему Интернету. Во-вторых, они могут изучать отношения между словами, которые находятся далеко друг от друга, а не только слова, которые являются соседями. В-третьих, они настроены огромным количеством внутренних «ручек»-так что многое, что даже для инженеров трудно понять, почему они генерируют одну последовательность слов, а не другую.

Задача моделей, однако, остается такой же, как в 1950-х годах: определите, какое слово, вероятно, будет дальше. Сегодня они настолько хороши в этой задаче, что почти все предложения, которые они генерируют, кажутся плавными и грамматическими.

Арахисовое масло и ананасы?

Мы попросили большую языковую модель GPT-3, чтобы завершить предложение «Арахисовое масло и ананасы». В нем говорилось: «Арахисовое масло и ананасы-отличная комбинация. Сладкие и соленые ароматы арахисового масла и ананаса идеально дополняют друг друга». Если человек сказал это, можно сделать вывод, что он попробовал арахисовое масло и ананас, сформировал мнение и поделился им с читателем.

Но как GPT-3 придумал этот абзац? Генерируя слово, которое подходит для контекста, который мы предоставили. А потом еще один. А потом еще один. Модель никогда не видела, не трогала или пробовала ананасы-она просто обрабатывала все тексты в Интернете, которые упоминают их. И все же чтение этого абзаца может привести к человеческому разуму-даже к тому, что инженер Google-представить GPT-3 как интеллектуальное существо, которое может рассуждать о блюдах с арахисовым маслом и ананасом.

Человеческий мозг вынужден вывести намерения за словами. Каждый раз, когда вы вступаете в разговор, ваш разум автоматически строит ментальную модель вашего партнера по разговору. Затем вы используете слова, которые они говорят, чтобы заполнить модель целями, чувствами и убеждениями этого человека.

Процесс прыжка от слов на ментальную модель беспрепятственно, и каждый раз, когда вы получаете полностью сбежное предложение. Этот когнитивный процесс экономит вам много времени и усилий в повседневной жизни, что значительно облегчает ваше социальное взаимодействие.

Однако в случае систем ИИ это озадачивает загадку, создавая умственную модель из воздуха.

Немного больше зондирования может выявить тяжесть этого пропуски. Рассмотреть возможность