Работаю в ML 8 лет, занимаюсь NLP. Нет, сингулярность не наступила и не наступит в обозримом будущем. Объясняю почему.
LLM (GPT, Claude и прочие) - это статистические модели. Они предсказывают следующий токен на основе паттернов из обучающих данных. У них нет понимания, целеполагания, модели мира. Они потрясающе имитируют интеллект, но имитация не равна наличию.
То что ты видишь ("программисты теряют работу") - это автоматизация рутинных задач. Так было с каждой волной технологий. Ткачи, извозчики, телефонистки. Часть профессий трансформируется, часть исчезнет, появятся новые. Это не сингулярность, это нормальный технологический прогресс.
AGI (artificial general intelligence) предполагает способность к обобщению на произвольные задачи, самостоятельному обучению и формированию целей. Современные модели не умеют ничего из этого. Они не могут обучиться новому навыку без переобучения на данных. Они не формируют цели. Они обрабатывают промпты.
Курцвейл строил свои предсказания на экстраполяции экспоненциального роста вычислительных мощностей. Но рост мощностей и появление AGI - разные вещи. Можно построить суперкомпьютер мощнее мозга, но если у тебя нет правильной архитектуры и алгоритмов обучения, он будет просто быстро считать ерунду.
Отвечая на вопрос: нет, ты поддаешься хайпу. Но хайп частично обоснован. Инструменты реально сильные. Используй их для продуктивности, а не бойся.
Спасибо за трезвый взгляд, реально полегчало. А как ты думаешь, через сколько лет появится AGI, если вообще появится?
Честный ответ - никто не знает. Может 20 лет, может 100, может никогда. Любой кто называет конкретную дату врет или продает что то