Решён
Что не умеет искусственный интеллект?

Андрей Щербаков ChatGPT и LLM
16.7k
9

Везде пишут что ИИ умеет все: писать код, рисовать картинки, сочинять музыку, анализировать данные, даже диагнозы ставить. Складывается ощущение что через пару лет вообще ничего не останется.

Реально, что ИИ НЕ может и скорее всего не сможет в обозримом будущем? Не на уровне философии ("ИИ не умеет любить"), а конкретно, практически. Какие задачи ему не по зубам?

Решение
65
Эксперт • 2 ответа

Работаю в ML 6 лет. Попробую структурировать.

1. Рассуждение за пределами обучающей выборки. Нейросети интерполируют, а не экстраполируют. Если задача похожа на то, что модель видела при обучении, она справится. Если задача принципиально новая (out-of-distribution), модель начинает галлюцинировать или выдавать статистически правдоподобный, но неверный ответ. Пример: LLM прекрасно решают стандартные задачи по математике, но ломаются на нестандартных олимпиадных задачах, сформулированных так, чтобы не совпадать с известными шаблонами.

2. Понимание физического мира через опыт. ИИ не имеет тела. Он не знает, что такое "тяжело", "горячо", "скользко". Все его "знания" о физическом мире - это текстовые описания и картинки. Робототехника пытается решить эту проблему, но пока даже самые продвинутые роботы уровня Boston Dynamics действуют по заранее заданным паттернам, а не по реальному пониманию физики.

3. Долгосрочное планирование в условиях неопределенности. ИИ отлично играет в шахматы (конечное пространство состояний, полная информация), но плохо планирует в реальном мире, где переменные бесконечны, информация неполная, а действия необратимы. Пример: ни одна модель не может составить реалистичный бизнес-план, учитывающий рыночные, политические, кадровые и технологические риски одновременно.

4. Гарантия корректности. ИИ не умеет давать гарантии. Он выдает вероятностный ответ. Для задач, где ошибка недопустима (управление ядерным реактором, хирургия, юридически обязывающие решения), ИИ может быть помощником, но не заменой.

5. Настоящее творчество vs рекомбинация. ИИ генерирует, комбинируя паттерны из обучающих данных. Он может создать картину "в стиле Пикассо" или "в стиле аниме", но не может создать новый стиль. Пикассо изобрел кубизм, потому что видел мир по другому. ИИ видит мир через статистику пикселей.

6. Отказ от выполнения задачи по этическим соображениям (не по правилам, а по совести). Ограничения в ChatGPT и аналогах - это захардкоженные фильтры, а не моральный компас. Модель не понимает, почему что то плохо. Она знает, что за определенные ответы ее оштрафуют при RLHF.

36
Участник • 2 ответа

Чинить сантехнику. Серьезно.

ИИ не может физически взаимодействовать с миром. Пока нет робота, который приедет к тебе домой, посмотрит на протекающий кран, поймет конструкцию, подберет инструмент и починит. Все "умные" штуки ИИ происходят в цифровом пространстве: текст, картинки, звук, видео. За пределами монитора ИИ бессилен.

Ну и еще: ИИ не умеет нести ответственность. Если врач поставил неправильный диагноз, его можно засудить. Если ИИ ошибся - кого судить? OpenAI? Разработчика промпта? Пользователя, который не перепроверил? Этот вопрос до сих пор не решен юридически ни в одной стране.

55
Участник • 3 ответа

Считать. Нет, серьезно.

LLM не умеют считать. Спроси ChatGPT сколько будет 17 * 38 и он может ответить правильно (потому что видел похожие примеры), а может ответить неправильно. Потому что языковая модель не выполняет арифметические операции. Она предсказывает следующий токен. Иногда следующий токен совпадает с правильным ответом, иногда нет.

Да, GPT-4 и o1 научились вызывать калькулятор под капотом. Но сама модель по прежнему не считает. Она вызывает внешний инструмент.

То же самое с логикой. LLM не умеют логически рассуждать. Они имитируют рассуждение, воспроизводя паттерны из обучающих данных. Когда задача требует цепочки рассуждений, которой нет в данных, модель выдает что то похожее на рассуждение, но с ошибкой в ключевом шаге.

Аватар Евгений

Решает по шаблону. Дай ему задачу, которой нет в бенчмарках, и посмотришь на результат

Аватар Светлана

o3 уже решает олимпиадные задачи по математике. Через год этот ответ устареет

35
Участник • 10 ответов

ИИ не умеет сказать "я не знаю" и честно в это верить.

Нейросеть ВСЕГДА генерирует ответ. Даже если вопрос бессмысленный. Спроси GPT "какого цвета запах вторника" и он тебе выдаст три абзаца уверенного текста про синестезию. Он не может промолчать, потому что молчание - это не токен в его словаре.

Люди знают границы своего знания (метакогниция). Я знаю, что не разбираюсь в квантовой физике, и не буду давать по ней советы. У ИИ нет метакогниции. Он одинаково уверен когда прав и когда несет полную ахинею.

22
Участник • 1 ответ

Список будет короче, если перечислить что он реально УМЕЕТ делать хорошо 😄

  1. Быстро компилировать известную информацию
  2. Генерировать первый черновик текста
  3. Переводить
  4. Объяснять простые вещи простым языком
  5. Подбирать рифмы и синонимы

Все. Остальное - маркетинг и хайп.

А не умеет он все, что требует проверки результата. Потому что он сам не может проверить, правильно ли ответил. Проверяет всегда человек.

9
Участник • 1 ответ

Вот вам все смешно, а через 10 лет AGI появится и все ваши списки "что не умеет" станут историей.

Google DeepMind, OpenAI, Anthropic - все открыто говорят что работают над AGI. Демис Хассабис в интервью 2024 года сказал что до AGI осталось 5-10 лет. Это глава DeepMind, не блогер с ютуба.

Текущие ограничения - это ограничения текущей архитектуры (трансформеры). Следующая архитектура решит часть проблем. Архитектура после нее - еще часть. И так далее.

Ответ на вопрос "что не умеет ИИ" меняется каждые полгода. В 2022 году ИИ не умел писать код. В 2024 он пишет код лучше большинства джунов. В 2022 не умел рисовать руки. В 2024 рисует фотореалистично.

7
Участник • 2 ответа

А кто сказал что он что то "умеет"? Он ничего не умеет. Он статистически подбирает следующее слово на основе миллиардов текстов из интернета. Это не интеллект, это автозаполнение на стероидах.

Называть это "искусственным интеллектом" - маркетинговый трюк. Назвали бы "продвинутый текстовый генератор" и никто бы не задавал таких вопросов.

2
Участник • 1 ответ

та же фигня, тоже пытаюсь понять где граница. попросил gpt написать диплом, написал красиво но половина источников выдуманные)) препод сразу спалил

Написать ответ

Премодерация гостей

Вы отвечаете как гость. Ваш ответ будет скрыт до проверки модератором. Чтобы ответ появился сразу и вы получали репутацию — войдите в аккаунт.

Будьте вежливы и соблюдайте правила платформы.