ChatGPT не может действовать: он не умеет играть в игру «Покажи и назови»

ЭкспертHi-Tech

О чем говорит ChatGPT

ChatGPT не может действовать: он не умеет играть в игру «Покажи и назови»

Артем Беседин*

Чат-бот ChatGPT не понимает того, о чем говорит. С этим утверждением согласны не только пользователи, но и создатели нейросети и, похоже, даже она сама. При общении с ChatGPT вы нередко будете получать ответы, предусмотрительно введенные разработчиками: «Я не понимаю того, о чем говорю», «Я всего лишь машина» или «Я не психолог». Но если на время отложить в сторону биологический шовинизм (представление о том, что только биологические системы могут обладать сознанием, интеллектом, пониманием и т. д.) и веру в собственную уникальность, то возникает вопрос: почему же ChatGPT ничего не понимает? Ведь говорит он столь же убедительно, как и человек.

Я оптимист в отношении искусственного интеллекта и поэтому не рассматриваю возражения наподобие «ИИ не умеет того-то и того-то». Через три, пять, десять лет он научится всему. Каждая публикация о ChatGPT указывает на ошибки в его работе: данные, которые бот предоставляет в ответ на запросы, часто слишком вольно отредактированы или вообще недостоверны, он бездумно обращается с числами и т. п.

Тем не менее Google и Microsoft наперегонки анонсируют внедрение поисковых систем, основанных на больших языковых моделях. Конечно, пока нейросети далеки от совершенства (ИИ Bard, созданный Google, на первый же заданный ему вопрос дал неправильный ответ), но скоро это изменится.

Да и тот факт, что ChatGPT часто выдает недостоверную информацию, еще не означает, что нейросеть не понимает написанного. Люди тоже часто ошибаются, при этом прекрасно осознавая, о чем идет речь. Пользователь относится к чат-боту как к взрослому и серьезному человеку. Человеку, который прочитал все на свете, ведь ИИ обучается на огромных массивах текстовых данных. Но не все разумные существа являются взрослыми, серьезными и всеведущими.

Представьте, например, чат-бот JokeGPT для генерации шуток по запросу. Люди бы в таком случае не считали фактические ошибки проблемой. Тем не менее чувством юмора JokeGPT мы бы тоже не наделили.

Критерии осмысленности речи, предъявляемые к человеку, ниже, чем те, которым уже сегодня удовлетворяет ChatGPT. Мы часто говорим несуразицу — отлично понимая, что говорим. А нейросеть не понимает. Видимо, дело в том, что для нас говорить и понимать свои слова означает гораздо больше, чем просто быть способным давать ответы, которые кажутся спрашивающему подходящими.

Покажи и назови

Люди учатся говорить не так, как ИИ. В самом простом описании обучение ребенка языку начинается с игры «Покажи предмет и назови его». Это не значит, что все обучение сводится к этой игре и что нет других вариантов. Просто такая игра — фундамент наших языковых компетенций. Для людей способность говорить о предмете жестко связана со способностью распознавать его. Два человека могут рассуждать об одной вещи именно потому, что оба в состоянии указать на нее: «Я говорю вот об этой штуке».

Что касается ИИ, то на сегодняшний день функции распознавания объекта и создания текста реализуются совершенно разными программами, обучаемыми на совершенно разном материале. В отношении нейронной сети, созданной для распознавания объектов, еще можно с натяжкой признать, что она называет светофор или автобус способом, отдаленно напоминающим человеческий, однако для ChatGPT это в корне неверно.

Да, люди не всегда говорят о вещах, которые можно показать, но возможность понимать разговор об этих предметах также зависит от способности играть в игру «Покажи и назови». Представьте, что вы столкнулись с человеком из другого времени, культуры, с другой планеты. Вы начинаете беседу на абстрактную тему — например, высказываете свои соображения об инфляции — и вдруг обнаруживаете, что ваш визави совершенно не понимает, о чем речь. И вам приходится с уровня экономической теории спускаться на уровень тыканья пальцем: «Это деньги, это товар. Я тебе — ты мне». ChatGPT похож на такого инопланетянина: не будучи в состоянии показать, где деньги, а где товар, он научился ловко имитировать разговоры на сложные темы.

Тем не менее есть одна вещь, на которую нейросеть могла бы указать: это тексты, на которых ее обучали. Когда человек делает некое утверждение, мы можем его спросить: «Почему ты так считаешь?» Способность объяснить, почему люди думают именно так, а не иначе, — важное условие осмысленного разговора. Ответом может быть: «Я сам это видел». Или, гораздо чаще: «Я прочитал об этом в интернете, послушал подкаст, мне рассказали». Большую часть информации мы сегодня получаем из онлайн-источников, принципиально доступных и ИИ. У ChatGPT тоже можно поинтересоваться: «Почему ты так говоришь?» — и ожидать указания на массив текстов и конкретные цитаты, на которых основан его ответ. Однако устроен этот чат так, чтобы избегать подобных разговоров.

Если бы ChatGPT выдавал на запрос не «авторский» текст, а набор цитат с указанием источников, такой ответ был бы более надежным, но менее впечатляющим, поскольку понижал бы статус бота в глазах пользователей. В нейросети, разговаривающей чужими фразами, легко распознать языковую модель. Ни у кого бы не возникло иллюзии, что машина что-то понимает.

Наконец, говорение, как и письмо, — это действие. Причем не только физическое, предполагающее движение голосовых связок или руки с карандашом, но и интеллектуальное. Представьте себе телеигру, где участник отвечает на вопрос, а ведущий уточняет: «Это ваш ответ?» Произнося «да», игрок не просто издает звуки — он подтверждает сказанное, берет на себя ответственность, принимает правила игры. Точно так же, слушая или читая что-либо, мы считаем автора текста ответственным за предоставляемую информацию — в противном случае это пустая болтовня. ChatGPT создавался не для болтовни. Это мощный и полезный инструмент для обработки текстовой информации, но всего лишь инструмент. Если и можно в данном случае говорить об ответственности, то это ответственность человека за использование вещи.

Когда я говорю, я действую, наделяя свои слова определенным значением. Например, заведу разговор о дворниках, а на вопрос, каких дворников имею в виду — тех, которые убирают улицы, или те, которые чистят стекла автомобиля, — отвечу, что подразумевал вторые. Далее я могу выдвигать любые утверждения, в том числе абсурдные, — скажем, заявить, что дворники-стеклоочистители убирают улицы. Да, это звучит странно, но ведь смысл моей речи зависит только от меня, от того, что я вкладываю в сказанное. ChatGPT не может придать своим словам никакого значения: за его комментарием не стоят никакие понятия. Для ИИ важны только знаки, буквы, слова и то, в каком окружении они появляются.

Подведем итог. ChatGPT не может действовать: он не способен играть в игру «Покажи и назови», которая предполагает действие; не несет ответственности за то, что говорит; не соотносит свои слова и понятия.

Научиться действовать

Но разве ИИ в принципе способен действовать? Я полагаю, что да. Правда, научиться этому сложнее, чем освоить игру в го, составлять тексты на абстрактные темы и распознавать светофоры. Представьте себе разнообразие действий человека: проявлять знаки внимания, игнорировать сообщения в мессенджере, замереть в одной позе для фотографии, пытаться повторить трюк… Требовать всего этого от нейросети неразумно, но можно представить себе более простые варианты — например, у животных. Звери делают что-то, потому что им нужно обеспечивать свое существование в этом мире: добывать пропитание, размножаться, оберегать потомство.

Сравнение с животными дает намек на то, каким будет способный к действию ИИ. Это может быть так называемый воплощенный ИИ, локализованный в рамках какого-то аппарата, которому требуется взаимодействовать со средой для обеспечения своего существования, то есть имеющий цели, достигаемые при помощи действий.

Такому примитивному описанию может удовлетворить и робот-пылесос, однако он в очень слабой степени взаимодействует со средой. У него есть «представление» о движениях, которые нужно совершить, чтобы объехать помещение, и о местоположении зарядного устройства. Это уровень очень простых организмов, без способности к пониманию и действию. Более сложные нейросети будут соответствовать более сложным организмам.

ИИ для дружбы и любви

Но почему я все время сравниваю искусственный интеллект с человеком? Не может ли ИИ пойти по совершенно другому пути развития и получить способности другого типа?

Во-первых, мы склонны мерить все человеческой меркой, а потому не можем не видеть в боте существо, схожее с нами. Сравнивать нейросеть с людьми полезно уже для того, чтобы не впадать в эту ошибку. Неопытные пользователи порой пишут в строке поисковика — гораздо более простой машины, чем ChatGPT, — запросы типа «Дорогой Яндекс! Скажи, пожалуйста, могут ли страусы летать?» Таким пользователям важно понять, почему с поисковиком не нужно общаться как с человеком.

Это же нужно усвоить и относительно ChatGPT. Отношение к нему как к взрослому, умному, понимающему человеку напрашивается само собой. Неслучайно люди обращаются к нейросети за психологической поддержкой или за советом, что подарить другу на день рождения, — это глубоко личные вопросы, которые часто сопряжены с доверием, привязанностью к собеседнику. Однако следует избегать антропоморфизации ИИ. Видеть в боте разумного психолога или советчика ничуть не лучше, чем считать подсказчиком поисковый сервис.

Во-вторых, мы сами создаем нейросети и можем захотеть, чтобы они обладали человеческими чертами. Одно из направлений развития ИИ — разработка помощников и компаньонов, причем не только для сугубо практических целей. Почему мы не можем создать такой искусственный интеллект, с которым можно было бы подружиться или который хотелось бы полюбить? Для этих целей знание о том, чего не хватает ИИ по сравнению с человеком, будет очень полезным.

Пять вопросов к пользователю ChatGPT

Но я слишком засмотрелся в будущее. Вернемся к ChatGPT. Это, безусловно, очень полезный инструмент, хотя еще не вполне понятный. Создатели не снабдили его инструкцией по технике безопасности, и такую работу, похоже, придется проделать нам самим. Что должен знать и понимать тот, кто намеревается использовать чат-бот для серьезных целей? Авторы статьи о ChatGPT в журнале Nature предложили список вопросов, на которые, по их мнению, следует ответить каждому ученому, взаимодействующему с данной нейросетью.

Оригинальные вопросы касаются только научной работы, но их можно адаптировать и для более общих целей. Если вы хотите прибегать к помощи ChatGPT или подобных нейросетей, спросите себя:

— какие компетенции в вашей сфере могут и не могут быть реализованы ChatGPT?

— какие задачи могут быть возложены на ChatGPT?

— какие юридические и этические последствия может повлечь за собой использование ChatGPT?

— каким стандартам должен отвечать ChatGPT?

— как можно верифицировать результаты работы ChatGPT?

Последние два вопроса кажутся мне наиболее важными. Новый чат-бот во многих отношениях несовершенен, и его результаты часто не соответствуют стандартам, принятым в определенных областях. Например, ему нельзя доверить обзор научной литературы, поскольку он искажает результаты. В то же время для составления гороскопов такая нейросеть будет весьма удобной.

Тексты, выдаваемые ChatGPT, требуют перепроверки. Прежде чем использовать бот в работе, нужно понять, какие методы верификации результатов вам доступны и не потребует ли эта перепроверка больше средств и времени, чем удастся сэкономить при использовании ИИ.

*Кандидат философских наук, доцент философского факультета МГУ, научный сотрудник Московского центра исследования сознания, автор канала @phil_besedin

ZUMA\TASS

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Вызов нечеловеческой креативности Вызов нечеловеческой креативности

Почему не стоит бояться нейросетей на базе искусственного интеллекта

Эксперт
Как живут люди с синдромом Аспергера Как живут люди с синдромом Аспергера

Что такое синдром Аспергера?

ТехИнсайдер
Россию заряжают на электродвижение Россию заряжают на электродвижение

Правительство не отказывается от развития транспорта на электрической тяге

Эксперт
Водителей предупредили о новом риске. Как не остаться без автомобиля Водителей предупредили о новом риске. Как не остаться без автомобиля

Ряд моделей авто вновь стал интересен угонщикам для «разбора»

РБК
«Снегирь» Бориса Хлебникова: конфликт поколений не обойдется без жертв «Снегирь» Бориса Хлебникова: конфликт поколений не обойдется без жертв

Каким получился «Снегирь» Бориса Хлебникова

Эксперт
5 напитков полезных для здоровья вашего мозга 5 напитков полезных для здоровья вашего мозга

Можно поддерживать свой мозг с помощью продуктов питания и здоровых напитков

ТехИнсайдер
Не Канны или Венеция: почему победители Берлинале не добиваются международного успеха Не Канны или Венеция: почему победители Берлинале не добиваются международного успеха

Что значат решения жюри на Берлинале?

Forbes
Почему киты иногда взрываются после смерти? Почему киты иногда взрываются после смерти?

Что происходит с телом кита после того, как животное умирает?

ТехИнсайдер
Иван Коршунов: Формулу успеха художника вывести невозможно Иван Коршунов: Формулу успеха художника вывести невозможно

Иван Коршунов — о ситуации на рынке современного искусства

СНОБ
Потерявшие дом: 3 отличных фантастических цикла про человечество, покинувшее Землю Потерявшие дом: 3 отличных фантастических цикла про человечество, покинувшее Землю

Три примера на тему гибели Земли из современной фантастики

ТехИнсайдер
Суперпродукт не только для телят Суперпродукт не только для телят

В чем ценность молозива?

Здоровье
«Катастрофа была не за горами». Как исследователи и псевдоученые искали эликсир вечной жизни «Катастрофа была не за горами». Как исследователи и псевдоученые искали эликсир вечной жизни

Как попытка найти способы жить вечно привела к расцвету науки и псевдонауки

СНОБ
Дьявольская карусель: нераскрытая тайна океанских глубин Дьявольская карусель: нераскрытая тайна океанских глубин

Что такое "дьявольская карусель"? Ответ до сих пор не найден

ТехИнсайдер
Сколько можно съесть бананов за день, чтобы не испортить фигуру? Стоит узнать! Сколько можно съесть бананов за день, чтобы не испортить фигуру? Стоит узнать!

Почему нельзя есть одни бананы?

ТехИнсайдер
5 случаев, когда за искусственный интеллект выдавали реальных людей 5 случаев, когда за искусственный интеллект выдавали реальных людей

На рассвете своего развития многие компании выдавали живых работников за ИИ

ТехИнсайдер
Умерший 9600 лет назад южноамериканец Зузу обрел лицо Умерший 9600 лет назад южноамериканец Зузу обрел лицо

Бразильские исследователи реконструировали внешность индивида по имени Зузу

N+1
«Для чего вы снова нас сюда вызываете?» «Для чего вы снова нас сюда вызываете?»

Константин Селин о своем фильме «Живой» и памяти о войне

Weekend
«Я подумаю об этом завтра»: 10 способов не тратить свободное время на мысли о работе «Я подумаю об этом завтра»: 10 способов не тратить свободное время на мысли о работе

Трудоголизм чаще всего перерастает в профессиональное выгорание

Psychologies
Зарплаты, отзывчивость и забастовки: что удивляет нашедших работу за рубежом россиян Зарплаты, отзывчивость и забастовки: что удивляет нашедших работу за рубежом россиян

Несколько рассказов о том, как россияне устраиваются на работу за рубежом

Forbes
Как бывший гендиректор «Мегафона» стал совладельцем крупнейших компаний Рунета Как бывший гендиректор «Мегафона» стал совладельцем крупнейших компаний Рунета

Как Иван Таврин стал акционером крупнейших компаний Рунета?

Forbes
Бот судья: чем грозит применение искусственного интеллекта в судах Бот судья: чем грозит применение искусственного интеллекта в судах

Условия, направления и границы применения ИИ в судопроизводстве

Forbes
Настоящий Декстер: история бразильского убийцы Педро Родригеса Фильо, который охотился на маньяков Настоящий Декстер: история бразильского убийцы Педро Родригеса Фильо, который охотился на маньяков

Маньяк, ставший прототипом Моргана Декстера из романов писателя Джеффа Линдсея

VOICE
Реальная любовь: 8 фильмов о том, какими бывают чувства Реальная любовь: 8 фильмов о том, какими бывают чувства

Киноподборка ко Дню всех влюбленных для тех, кто сказкам предпочитает быль.

Правила жизни
Вам письмо: как компании увольняют сотрудников по электронной почте Вам письмо: как компании увольняют сотрудников по электронной почте

Добро пожаловать в эпоху цифровых уведомлений об увольнении

Forbes
Нет дыма без огня Нет дыма без огня

Ироничный спор об искусстве на картине Диего Веласкеса

Вокруг света
Гамамелис: Зимнее волшебство Гамамелис: Зимнее волшебство

Гамамелис, он же волшебный и ведьмин орех, — род листопадных кустарников

Наука и жизнь
«Просвещение может нам помочь»: биолог Александр Панчин о будущем научпопа в России «Просвещение может нам помочь»: биолог Александр Панчин о будущем научпопа в России

Александр Панчин рассказывает, что сейчас происходит с научпопом в России

Forbes
Вдова Владислава Стржельчика: «В театре его без иронии называли Ваше превосходительство» Вдова Владислава Стржельчика: «В театре его без иронии называли Ваше превосходительство»

Известного артиста Владислава Стржельчика обожали театралы и зрители кино

Коллекция. Караван историй
Как кроссовки стали рыночной валютой Как кроссовки стали рыночной валютой

Редкие старые кроссовки — мимолетное веяние моды или новая инвестиция

Эксперт
Зачем мы дружим? Зачем мы дружим?

В чем смысл дружбы, как она строится и так ли она идеальна?

Psychologies
Открыть в приложении