Заменит ли ChatGPT писателей и мыслителей? Отвечает Стивен Пинкер
[От редакции: это перевод статьи Элвина Пауэлла, которую The Harvard Gazette опубликовала 14 февраля 2023 года.]
Стивен Пинкер считает, что ChatGPT действительно впечатляет и станет впечатлять еще больше, когда «перестанет выдумывать» и станет реже ошибаться. В ноябре 2023 года, когда компания OpenAI представила свой чат-бот ChatGPT, способный мгновенно отвечать на вопросы и даже создавать тексты в различных жанрах, в сфере высшего образования и в мире в целом он произвел фурор. ChatGPT использует так называемую большую языковую модель (LLM), что позволяет ему постоянно учиться и улучшать свои ответы. Но насколько совершенным он может стать? Стивен Пинкер, профессор психологии в Гарварде, исследовал связи между разумом, языком и мышлением в таких работах, как отмеченный наградами бестселлер «Язык как инстинкт». В этом интервью он говорил о том, стоит ли нам волноваться, что ChatGPT может заменить людей как писателей и мыслителей.
ChatGPT привлек огромное внимание, и многие отзывы были негативными. Какие важные вопросы, на ваш взгляд, поднимает его возникновение?
ChatGPT показывает, как наша интуиция может подвести нас, когда мы пытаемся представить статистические закономерности, скрытые в полутриллионе слов текста и зафиксированные в 100 миллиардах параметров. Как и большинство людей, я бы никогда не догадался, что есть система, способная, например, написать Геттисбергскую речь в стиле Дональда Трампа. В массивах данных есть слои закономерностей, которые непостижимы для нас, людей. На меня произвело большое впечатление, что ChatGPT может генерировать правдоподобную, релевантную и хорошо структурированную прозу без какого-либо понимания мира — без явных целей, четко выраженных фактов или других вещей, которые, как можно было бы подумать, необходимы для создания осмысленного текста.
Впечатление, которое производит его компетентность, делает ошибки еще более поразительными. ChatGPT уверенно выдумывает, что у США было четыре женщины-президента, включая Люси Бейнс Джонсон в 1973–1977 годах. Он совершает элементарные с точки зрения здравого смысла ошибки. Уже 25 лет я начинаю свой вводный курс психологии с демонстрации того, как лучший из доступных на сегодняшний день искусственных интеллектов оказывается бессильным перед обычным здравым смыслом. В этом году я боялся, что эта часть лекции устареет, потому что примеры, которые я приводил, окажутся под силу ChatGPT. Но мои опасения оказались напрасны. Когда я спросил ChatGPT «Если Мейбл была жива в 9 утра и в 5 вечера, была ли она жива в полдень?», он ответил: «Не указано, была ли Мейбл жива в полдень. Известно, что она жива в 9 и 5, но информации о полдне нет». Таким образом, он не понимает базовых фактов о мире — он не знает, что люди живут непрерывными промежутками времени и после смерти не воскресают, — потому что он никогда не сталкивался с текстом, в котором это было бы явно указано. (В его защиту: он знал, что золотые рыбки не носят трусов.) Мы имеем дело с чуждым человеку интеллектом, способным на удивительные достижения, но не в манере, свойственной нашему разуму. Нам не нужно читать пол триллиона слов текста (если читать по три слова в секунду восемь часов в день, это займет 15 000 лет), чтобы разговаривать или решать проблемы. Тем не менее впечатляет, как много можно извлечь из статистических закономерностей очень высокого порядка, основанных на огромных наборах данных.
Компания OpenAI заявила, что ее цель — разработка общего искусственного интеллекта. Стоит ли это делать и возможно ли?
Я считаю, что это так же бессмысленно, как не имеет смысла «универсальная машина». Мы можем представить всевозможные суперспособности, такие как полеты Супермена, неуязвимость и рентгеновское зрение, но это не значит, что они могут быть реализованы физически. Точно так же мы можем фантазировать о суперинтеллекте, который найдет способ сделать нас бессмертными, или принести мир во всем мире, или захватить Вселенную. Но реальный интеллект состоит из набора алгоритмов для решения конкретных задач в конкретных условиях. То, что у нас есть сейчас и, вероятно, останется в будущем, — это устройства, которые превосходят людей в способности решать некоторые задачи, но не все.
Вас беспокоит, что ваши студенты используют ChatGPT?
Не больше, чем скачивание курсовых работ из интернета. Колледж попросил нас напомнить студентам, что кодекс чести запрещает сдавать работы, которые они не писали сами. Я не наивен; я знаю, что некоторые студенты Гарварда могут быть откровенными лжецами, но я не думаю, что таких много. Кроме того, пока что многие тексты ChatGPT легко распознать, потому что он использует цитаты и ссылки, которых не существует.
Есть много вещей, которые беспокоят людей в связи с ChatGPT, например дезинформация и угроза рабочим местам. Есть ли что-то, что особенно беспокоит вас?
Страх перед новыми технологиями всегда вызван сценариями самого худшего, что может случиться, без учета тех контрмер, которые обязательно возникнут в реальном мире. Для больших языковых моделей такими контрмерами станут скептицизм по отношению к автоматически сгенерированному контенту (журналисты уже перестали использовать трюк, при котором ChatGPT пишет их колонки о ChatGPT, потому что читатели его раскусили), профессиональные и моральные ограничения (например, кодекс чести Гарварда), а также, возможно, технологии, которые будут маркировать или выявлять использование LLM. Есть и другие способы сопротивления. Один из них заключается в том, что мы интуитивно чувствуем причинно-следственные связи во взаимоотношениях с людьми. Коллекционер может заплатить $100 000 за клюшки для гольфа Джона Ф. Кеннеди, хотя они неотличимы от любых других клюшек для гольфа того времени. Запрос на подлинность еще сильнее в случае таких интеллектуальных продуктов, как рассказы и редакционные статьи: осознание того, что их написал реальный человек, влияет на их статус и ценность. Другой источник сопротивления — очевидные ошибки LLM, такие как утверждение, что измельченное стекло набирает популярность как диетическая добавка или что девять женщин могут родить ребенка за один месяц. По мере того как системы будут улучшаться благодаря обратной связи (которая часто идет из клик-ферм, расположенных в бедных странах), таких ошибок будет меньше, но, учитывая бесконечные возможности, они все равно будут возникать. И, что важно, физических следов, которые бы позволили нам проверять факты, не будет. Вы можете выяснить, какими источниками пользовался человек, но в LLM «факт» размазан по миллиардам крошечных корректировок количественных переменных, и его источник невозможно проверить. Тем не менее существует множество видов шаблонных текстов, которые LLM генерирует так же легко, как и человек, и это может быть полезно. Возможно, не стоит оплачивать рабочие часы дорогого адвоката, который составит для вас завещание или бракоразводное соглашение, ведь их можно сгенерировать автоматически.
Мы много слышим о потенциальных недостатках. А есть ли какие-то преимущества?
Один из примеров — использование ChatGPT в качестве семантической поисковой системы. Нынешние поисковые системы работают со строковым типом данных. Сейчас, если вам нужна идея, а не последовательность символов, нет хорошего способа ее найти. Настоящая семантическая поисковая система, в отличие от LLM, имела бы концептуальную модель мира. Она бы включала символы для людей, мест, объектов и событий, а также представления о целях и причинно-следственных связях, что больше похоже на работу человеческого разума. Но как просто инструмент, как поисковая система для получения полезной информации LLM может быть чрезвычайно полезной — при условии, что перестанет выдумывать.
Если мы заглянем в будущее и предположим, что системы станут лучше — возможно, экспоненциально лучше, как это повлияет на людей? Что будет означать образование, знание, статус эксперта?
Я сомневаюсь, что улучшения будут экспоненциальными, но они будут происходить. И, как и в случае с использованием компьютеров, дополняющих человеческий интеллект, начиная с вычислений и ведения записей в 1960-х годах, поисковых систем в 1990-х и так далее, наши возможности возрастут. Мы признали, что наши способности запоминать и считать ограниченны, а теперь признаем, что поиск и обработка большого объема информации — это то, что мы можем делать хорошо, но ИИ может делать лучше. Поскольку LLM устроены иначе, чем мы, они могут помочь нам лучше понять природу человеческого интеллекта. Они могут углубить наше понимание устройства человеческого сознания, когда мы будем сравнивать его с системами, устроенными по тому же принципу, но превосходящими его в некоторых аспектах и уступающими в других.
Значит, искусственный общий интеллект не вытеснит людей? Мы все равно останемся на вершине? Или это неправильная постановка вопроса?
Это неправильная постановка вопроса. Не существует одномерной «шкалы интеллекта», которая охватывала бы все возможные умы. Конечно, мы используем шкалу IQ для измерения различий среди людей, но ее нельзя экстраполировать до уровня «всезнающего существа», хотя бы потому, что его знания об эмпирической реальности ограничены его возможностями восприятия. Нет никакого всезнающего и всемогущего чудо-алгоритма: существует столько видов интеллекта, сколько существует задач и миров.