Telegram Group & Telegram Channel
Самообучение нейросети: самый простой подход

Очень интересную возможность самообучения нейросети сегодня реализовал с Claude.

Предыстория

Я анализировал довольно сложный 90-страничный документ — результаты исследования климата в команде. Искал в нем полезные инсайты. В промпте, в частности, были высокие требования к детализации ответа (подробный ПРОМПТ в первом комментарии). Я недавно писал о большом преимуществе ответов с высокой детализацией компонентов для оценки качества и релевантности ответа и стараюсь часто использовать такие элементы в промпте.

Я уже знаю, что, в отличие от ChatGPT-4, Claude быстро «утомляется», и если у него просить сразу много выводов, их конкретика и детализация линейно снижается от первого к, например, двадцатому. Поэтому некоторое время назад я придумал промпт-стратегию «сначала попроси длинный список (15-25 элементов), а потом запрашивай нужную детализацию последовательно для каждой следующей пятерки ответов». Стратегия работает стабильно. Сработала и в этот раз. Но я сделал и кое-что новое…

Что я сделал по-другому в этот раз?

В этот раз в каждый следующий промпт (для выводов 6-10, 11-15 и тп) я добавлял фразу: «Очень хорошо, ты сделал гораздо лучше и конкретнее. Продолжай работу для выводов с 6 по 10, но перед этим проанализируй свой предыдущий ответ и постарайся улучшить текущий, еще увеличив уровень конкретики в разделе рекомендации».

Что получилось?

Я увидел плавное повышение уровня конкретики рекомендаций в каждом ответе. Я раньше не сталкивался с таким (но я и не просил каждый раз улучшать, просто просил «сохрани такой же уровень конкретики, как в выводах 1-5»). Мне очень понравился этот эффект…

… и я совсем обнаглел и распоясался…

… и решил пойти по второму кругу, отталкиваясь от уже-почти совершенного ответа по последней пятерке выводов. Я попросил улучшить первые выводы, (которые нейросеть и так сформулировала адекватно (с 1 по 5)) — и запросил ещё повысить уровень конкретики.

Результаты удивили (как говорится)

Ха, после второго круга детализация и конкретика рекомендаций превзошла всякие ожидания. при этом ответы оставались адекватными. Только представьте себе, по каждому из выводов нейросеть дала аж 7 буллитов рекомендаций внутри каждого ответа!

Вывод

Так что если вам будут нужны ответы по-настоящему высокого качества в плане деталей и конкретики, попробуйте запустить такое самообучение. Думаю, результат будет стоить 20-30 минут, которые вы в это инвестируете;);)

PS: Генерализованный промпт здесь, в первом комментарии. Результаты и исходный документ показать не могу, тк клиентский проект.

А как вы повышаете качество ответов нейросети? Делитесь вашими подходами в комментариях!

в каталог кейсов



tg-me.com/PromptLab_Mozlab/90
Create:
Last Update:

Самообучение нейросети: самый простой подход

Очень интересную возможность самообучения нейросети сегодня реализовал с Claude.

Предыстория

Я анализировал довольно сложный 90-страничный документ — результаты исследования климата в команде. Искал в нем полезные инсайты. В промпте, в частности, были высокие требования к детализации ответа (подробный ПРОМПТ в первом комментарии). Я недавно писал о большом преимуществе ответов с высокой детализацией компонентов для оценки качества и релевантности ответа и стараюсь часто использовать такие элементы в промпте.

Я уже знаю, что, в отличие от ChatGPT-4, Claude быстро «утомляется», и если у него просить сразу много выводов, их конкретика и детализация линейно снижается от первого к, например, двадцатому. Поэтому некоторое время назад я придумал промпт-стратегию «сначала попроси длинный список (15-25 элементов), а потом запрашивай нужную детализацию последовательно для каждой следующей пятерки ответов». Стратегия работает стабильно. Сработала и в этот раз. Но я сделал и кое-что новое…

Что я сделал по-другому в этот раз?

В этот раз в каждый следующий промпт (для выводов 6-10, 11-15 и тп) я добавлял фразу: «Очень хорошо, ты сделал гораздо лучше и конкретнее. Продолжай работу для выводов с 6 по 10, но перед этим проанализируй свой предыдущий ответ и постарайся улучшить текущий, еще увеличив уровень конкретики в разделе рекомендации».

Что получилось?

Я увидел плавное повышение уровня конкретики рекомендаций в каждом ответе. Я раньше не сталкивался с таким (но я и не просил каждый раз улучшать, просто просил «сохрани такой же уровень конкретики, как в выводах 1-5»). Мне очень понравился этот эффект…

… и я совсем обнаглел и распоясался…

… и решил пойти по второму кругу, отталкиваясь от уже-почти совершенного ответа по последней пятерке выводов. Я попросил улучшить первые выводы, (которые нейросеть и так сформулировала адекватно (с 1 по 5)) — и запросил ещё повысить уровень конкретики.

Результаты удивили (как говорится)

Ха, после второго круга детализация и конкретика рекомендаций превзошла всякие ожидания. при этом ответы оставались адекватными. Только представьте себе, по каждому из выводов нейросеть дала аж 7 буллитов рекомендаций внутри каждого ответа!

Вывод

Так что если вам будут нужны ответы по-настоящему высокого качества в плане деталей и конкретики, попробуйте запустить такое самообучение. Думаю, результат будет стоить 20-30 минут, которые вы в это инвестируете;);)

PS: Генерализованный промпт здесь, в первом комментарии. Результаты и исходный документ показать не могу, тк клиентский проект.

А как вы повышаете качество ответов нейросети? Делитесь вашими подходами в комментариях!

в каталог кейсов

BY Лаборатория Промптинга Mozlab


Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283

Share with your friend now:
tg-me.com/PromptLab_Mozlab/90

View MORE
Open in Telegram


telegram Telegram | DID YOU KNOW?

Date: |

How Does Bitcoin Mining Work?

Bitcoin mining is the process of adding new transactions to the Bitcoin blockchain. It’s a tough job. People who choose to mine Bitcoin use a process called proof of work, deploying computers in a race to solve mathematical puzzles that verify transactions.To entice miners to keep racing to solve the puzzles and support the overall system, the Bitcoin code rewards miners with new Bitcoins. “This is how new coins are created” and new transactions are added to the blockchain, says Okoro.

telegram from hk


Telegram Лаборатория Промптинга Mozlab
FROM USA