За последний год случился невидимый для большинства технологический сдвиг.
Когда только появились первые версии умных моделей (GPT-4o, Gemini 2.5, Claude 3.5 и другие) — они были...
По-настоящему БОЛЬШИМИ и УМНЫМИ.
(жаль, что это слишком дорого и невыгодно для компаний вроде OpenAI или Google)
Чтобы получить от тех моделей нормальный результат, действительно можно было написать длинные, детальные, структурированные промпты с просьбой ответить в один шаг.
И нейронка могла с некой вероятностью выдать умный ответ случайно.
При чем неважно, насколько крутой промпт, на самом деле, вероятность умного ответа не повышалась значительно.
Это работало, потому что модель была реально ОЧЕНЬ огромной и охватывала супер-данные, а еще была прожорливой, много думала и при этом обладала высочайшим креативом и интеллектом.
В тот короткий период "промпт-инжиниринг" реально мог иметь смысл в отдельных ситуациях.Но потом всё изменилось.
Что произошло: компании сделали нейросети "дружелюбными", супер-массовыми для широкого пользователя, а еще они "оптимизировали их, чтобы сделать бизнес прибыльнее — и этим они убили эффективность сложных промптовТеперь нейронки настроены на массового пользователя, который пишет:
"Что сегодня покушать на ужин?.."
"Мне лень пойти в зал, что делать..."
"Что сказать парню, если он...
Компании, которые делают нейросети, поняли простую вещь:
Большинство пользователей — обычные люди. Которые не хотят учиться сложным техникам. Они хотят просто задать вопрос и получить ответ.
И нейросети
специально упростили под это.
Оптимизировали для коротких, простых запросов от массового пользователя.
И произошёл парадоксальный эффект:Разница между детальным промптом на полстраницы и простым запросом "напиши пост" — практически исчезла.Теперь для бизнес-задач, закрытия маркетинговых сложных глубоких тем, написания контента и прочих деталей нейронки просто НЕ справляются, если делать это через ПРОМПТЫ.
Прямо сейчас можете проверить сами (и увидите, как это на самом деле работает вживую, как обесценились промпты)
Откройте два окна ChatGPT.
В первом напишите максимально детальный запрос:
- С контекстом
- С описанием аудитории
- С примерами
- С требованиями к структуре
- На полстраницы текста
Во втором напишите просто: "Напиши продающий пост про [ваша тема]"
Получите оба результата.
Сравните.
И вы увидите, что они... по сути одинаковые.Оба — красиво оформленная вода. Оба — набор общих фраз без конкретики.
Оба — то, что вы не сможете использовать.
Почему так происходит? Потому что ChatGPT не пытается решить вашу задачу — он пытается её имитировать.Потому что современный ChatGPT на любой запрос со словами "продающий пост" делает одно и то же (неважно коротких промпт или длинный умный на несколько страниц сложный запрос):
Сначала модель начинает трансформировать ваш изначальный запрос в "понятный" для себя.
Так как модель сильно "упрощена" разработчиками для сокращения расходов (сами подумайте, вы платите за подписку 20 долларов, а лишь для ваших обычных вопросов модель использует мощности 10-15 промышленных серверных процессоров стоимостью от 20 тысяч долларов)...
...поэтому ИИ сжимает данные, ориентируется на малую выборку данных и сокращает запрос до набора самых "емких" слов и...
Выдаёт статистически наиболее вероятную последовательность слов, которая ассоциируется с модифицированной выжимкой вашего запроса.
У такого подхода есть крутой плюс:
Для массового пользователя модель становится умнее.На запрос "Расскажи, как правильно тренироваться в зале" модель ответит реально круто и расскажет много деталей.
Но жирный минус заключается в том, что...
Для тебя модель начинает ТУПЕТЬ и игнорировать умные длинные промпты, которые пытаются заставить ее ответить в один шаг.Если ты хочешь получить ответ от нейронки в один шаг с умным промтом, то...
ИИ не пытается решить задачу. Он сжимает твой запрос, обрабатывает его прежде чем ответить, а затем пытается
ИМИТИРОВАТЬ решение задачи.
Он строит красивый фасад. За которым ничего нет.
Пытаться улучшить результат более сложным промптом — это как пытаться объяснить собаке квантовую физику, просто говоря громче.
Это фундаментально неверный подход.
Какой же подход тогда верный? Читай дальше в следующих блоках будет содержательный ответ по пунктам, какие запросы могут прийти на замену "одно-шаговым промптам" и как обернуть изменения ИИ-моделей себе не пользу.Но сначала обсудим еще одну важную грань проблемы.
Потому что все это только верхушка айсберга
Настоящая проблема глубже.
И она объясняет, почему
НИКАКИЕ промпты не могут дать вам настоящий результат.