Есть ответы
Умеют ли роботы читать, понимая текст?

Андрей Щербаков ChatGPT и LLM
13.3k
9

Вопрос скорее философский, но с технической подоплекой.

Сейчас ChatGPT и другие LLM генерируют текст, отвечают на вопросы, пересказывают статьи. Выглядит как понимание. Но действительно ли они "читают" в том смысле, в каком это делает человек? Или это продвинутый автокомплит, который угадывает следующее слово по статистике?

Интересно мнение и технарей, и гуманитариев. Есть ли какой то консенсус в науке на этот счет?

111
Участник • 2 ответа

Зависит от определения слова "понимание". И тут начинаются проблемы.

Если понимание это способность извлечь релевантную информацию из текста, ответить на вопросы по нему, сделать выводы, пересказать другими словами, то да, LLM умеют "читать понимая". GPT-4 проходит экзамены по праву и медицине лучше среднего студента. Это измеримый факт.

Если понимание это наличие субъективного опыта, qualia, осознанного переживания смысла прочитанного, то нет. Трансформер не "переживает" текст. У него нет ощущения "ага, понял!". Он манипулирует числовыми представлениями токенов в многомерном пространстве.

Проблема в том что мы и про человеческое понимание не знаем, является ли субъективный опыт необходимым компонентом или побочным эффектом. Это hard problem of consciousness, философы бьются над ней столетиями.

Практический ответ: LLM демонстрируют поведение, функционально неотличимое от понимания в большинстве задач. Называть ли это "настоящим" пониманием, каждый решает сам.

Аватар Андрей Щербаков

Четкое разграничение, спасибо. Получается вопрос упирается не в технологии а в философию

73
Эксперт • 2 ответа

Работаю в NLP 6 лет. Короткий ответ: нет, не понимают. Длинный ответ: зависит от задачи.

LLM потрясающе справляются с задачами где ответ можно "собрать" из паттернов обучающих данных. Перевод, суммаризация, ответы на фактологические вопросы. Тут они создают убедительную иллюзию понимания.

Но попробуйте дать GPT задачу на логику которая требует отслеживания состояний, пространственного мышления или причинно-следственных цепочек длиннее 5-6 шагов. Модель начинает галлюцинировать с абсолютной уверенностью в голосе.

Простой тест: попросите LLM посчитать количество букв "р" в слове "strawberry". Или решить задачу "У Маши 5 яблок, она дала Пете на 2 больше чем у нее. Сколько яблок у Пети?". Модель часто ошибается в таких элементарных вещах, потому что она не "считает" и не "рассуждает". Она генерирует наиболее вероятное продолжение.

Это не автокомплит в смысле T9 на телефоне. Это гораздо сложнее. Внутренние представления LLM захватывают какие то аспекты семантики. Но назвать это пониманием я бы не рискнул.

Аватар Дмитрий Звездин

Про strawberry уже пофиксили кстати, o1 считает правильно. Но суть верная

56
Участник • 1 ответ

Классический мысленный эксперимент на эту тему: "Китайская комната" Джона Серла (1980).

Представьте человека в закрытой комнате. Ему подсовывают записки с иероглифами. У него есть огромная книга правил: "если видишь такой иероглиф, напиши в ответ такой". Он выдает идеальные ответы на китайском, но при этом не понимает ни слова по-китайски.

Серл утверждал что компьютер, каким бы сложным он ни был, делает то же самое: манипулирует символами по правилам, без понимания.

Контраргумент (systems reply): понимание принадлежит не человеку в комнате, а всей системе (человек + книга + комната) целиком. Аналогично, отдельный нейрон в мозге не "понимает" текст, но мозг в целом, понимает.

Спор не закрыт до сих пор.

39
Участник • 3 ответа

Гуманитарий тут.

Мне кажется все зацикливаются на вопросе "понимает или нет" и упускают более интересный вопрос: а мы сами то как читаем?

Когда я читаю роман, я не анализирую каждое предложение логически. Я чувствую. Текст вызывает эмоции, образы, ассоциации с моим опытом. Запах бабушкиного дома от описания деревенской кухни. Тревогу от сцены погони. Это и есть "понимание" для меня.

Машина этого не испытывает. Она может написать "этот отрывок вызывает чувство ностальгии", но она не испытывает ностальгию. Это как разница между человеком, который плачет на фильме, и камерой, которая этот фильм записывает. Камера фиксирует каждый кадр идеально, но ничего не чувствует.

28
Участник • 1 ответ

Я вот чего не понимаю в этих дискуссиях. Все говорят "ИИ не понимает, он просто предсказывает слова". Окей. А что делает мозг? Нейроны тоже "просто" передают электрические сигналы по синапсам на основе предыдущего опыта.

Может "понимание" это и есть предсказание, просто очень хорошее? Может разницы между нами и LLM меньше чем нам хочется думать?

Не утверждаю что так и есть. Провоцирую подумать.

Аватар Соня Акварельная

Разница в том что у нас есть тело, сенсорный опыт и эволюционный контекст. Мозг не в вакууме работает. LLM обучена только на тексте, у нее нет воплощенного опыта (embodied cognition)

Аватар Дмитрий Лебедев

Ну мультимодальные модели уже видят картинки и слышат звук. Через 10 лет дадут им робота с тактильными датчиками, и аргумент про embodiment отпадет

33
Эксперт • 2 ответа

Короткий ответ от лингвиста: LLM обрабатывают текст на уровне синтаксиса и поверхностной семантики блестяще. На уровне прагматики (зачем автор написал именно так, какой контекст подразумевается, что считывается между строк) они работают куда хуже.

Пример: ирония. "Ну конечно, прекрасная идея" может значить прямо противоположное в зависимости от ситуации. Человек считывает это мгновенно. GPT угадывает примерно в 60-70% случаев.

5
Участник • 2 ответа

Все эти нейросети, роботы, ИИ. Вам не кажется что нас приучают к мысли что машина "понимает" чтобы потом заменить живых работников и никто не возмутился? Типа "ну оно же понимает, зачем вам человек?"

Следите за деньгами. OpenAI стоит 150 миллиардов. Им ВЫГОДНО чтобы вы верили в "понимание". Чем больше вы верите, тем больше платите за подписку.

11
Участник • 2 ответа

Попугай тоже "говорит", но не понимает. Калькулятор "считает" лучше человека, но не понимает математику. LLM "читает" текст, но не понимает его.

Все. Дискуссия закрыта. Идите работать.

17
Участник • 5 ответов

а мне вот чатгпт помог диплом написать и ему было все равно понимает он текст или нет, главное что я его понял и защитился на 4 😂

Написать ответ

Премодерация гостей

Вы отвечаете как гость. Ваш ответ будет скрыт до проверки модератором. Чтобы ответ появился сразу и вы получали репутацию — войдите в аккаунт.

Будьте вежливы и соблюдайте правила платформы.