Telegram Group & Telegram Channel
Как решать сложные задачи, требующие точности? Интересный подход, основанный на 23м Принципе Промптинга (из 26, проверенных учеными)

(часть 8, здесь предыдущие 7)

Привет, друзья!

Анализировал очередной лайфхак промптинга, а получился пост про оригинальный подход к решению сложных объемных задач на примере анализа результатов HR-исследования. Начнём с принципа промптинга:

23. Когда у вас есть сложный кодинговый промпт, который может находиться в разных файлах: «С этого момента и далее, когда вы генерируете код, охватывающий более одного файла, создавайте скрипт на [языке программирования], который можно запустить для автоматического создания указанных файлов или внесения изменений в существующие файлы для вставки сгенерированного кода. [ваш вопрос]»

Лайфхак выглядит очень здраво. Ключевая идея этого принципа: разбиение сложной задачи на более мелкие, управляемые, контролируемые (!) части и автоматизация процесса их сборки. Но, поскольку я сам код не пишу, позволю себе рассказать о том, как я его применяю при поиске решений бизнес-задач.

Я использую его, когда мне нужно безупречно обработать большой документ. Например, классифицировать ответы на открытый вопрос после проведенного исследования (или после опроса на стратсессии с большой группой). Метод разделения большой задачи на несколько небольших с последующей интеграцией результатов:

1️⃣ Значительно упрощает проверку работы нейросети (да-да, при решении уникальных задач мы всё ещё проверяем «руками», хотя бы выборочно).

2️⃣ Повышает качество работы нейросети (пока я делал пример для этого поста, даже Gemini с миллионом токенов ошибалась, если я просил сразу вывести 100 классифицированных ответов). А вот 25 в одном ответе — самое то! Ни одной ошибки!

Поэтому для решения большой задачи по классификации 100+ ответов сотрудников на открытый вопрос разделим ответ нейросети на «порции» по 25 элементов списка в каждом и попросим делать промежуточный итог в конце каждого ответа. А в конце «собрать» их в единую таблицу (что полностью воспроизводит идею 23го лайфхака).

Тогда проверка будет сведена сведена к (1) выборочному контролю качества классификации, (2) выборочному либо тотальному контролю правильности точности подсчета в каждом фрагменте и (3) тотальному контролю верности суммирования промежуточных таблиц. Ха, всего-то;)

Вот мой ПРОМПТ:

С этого момента и далее, когда ты анализируешь документ «результаты опроса сотрудников» в поисках повторяющихся токсичных проявлений руководителей, создавай саммари в конце каждого своего ответа в виде таблицы с колонками: "Номера записей", "Токсичное проявление", "Количество упоминаний в анализируемом фрагменте"

Раздели свой большой ответ на несколько ответов, чтобы мне было удобнее анализировать. В каждом ответе возьми по 25 примеров (всего их будет больше 100).

Например, если в твоем ответе 1 обнаружено 2 упоминания "Публичная критика" и 1 упоминание "Микроменеджмент", таблица должна выглядеть так:

| Номера записей | Токсичное проявление | Количество упоминаний в анализируемом фрагменте |
|---|---|---|---|
| номер записи Х1, номер записи Х2 | Публичная критика | 2 |
| номер записи Y | Микроменеджмент | 1 |

В конце анализа скомпонуй все таблицы в единую сводную таблицу, приведя все номера записей и указав общую сумму упоминаний каждого. Начни с самого часто встречающегося.


ОТВЕТ НЕЙРОСЕТИ (после нескольких «продолжи работу»)

В комментариях.

МОЯ ОЦЕНКА

Принцип (и промпт) прекрасен!

Безусловно, это замедлит вашу работу по сравнению с ситуацией, когда вы отдадите анализ большого документа целиком на откуп нейросети, однако добавит уверенности, что вы ничего не потеряли. А на текущем этапе развития нейросетей при решении уникальной задачи с файлом из нескольких сотен записей эта уверенность может появиться только после проверки.

Вы уж простите:)

Осталось всего 3 из 26!

Порадуйте огонечками — и будет следующий пост. А в комментах — пишите, как решаете объемные задачи, требующие проверки!

в каталог промптов и кейсов (их уже 28+)

на мой главный канал (пост «Хотите быть богатым — забудьте о страсти к продукту»)
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/PromptLab_Mozlab/145
Create:
Last Update:

Как решать сложные задачи, требующие точности? Интересный подход, основанный на 23м Принципе Промптинга (из 26, проверенных учеными)

(часть 8, здесь предыдущие 7)

Привет, друзья!

Анализировал очередной лайфхак промптинга, а получился пост про оригинальный подход к решению сложных объемных задач на примере анализа результатов HR-исследования. Начнём с принципа промптинга:

23. Когда у вас есть сложный кодинговый промпт, который может находиться в разных файлах: «С этого момента и далее, когда вы генерируете код, охватывающий более одного файла, создавайте скрипт на [языке программирования], который можно запустить для автоматического создания указанных файлов или внесения изменений в существующие файлы для вставки сгенерированного кода. [ваш вопрос]»

Лайфхак выглядит очень здраво. Ключевая идея этого принципа: разбиение сложной задачи на более мелкие, управляемые, контролируемые (!) части и автоматизация процесса их сборки. Но, поскольку я сам код не пишу, позволю себе рассказать о том, как я его применяю при поиске решений бизнес-задач.

Я использую его, когда мне нужно безупречно обработать большой документ. Например, классифицировать ответы на открытый вопрос после проведенного исследования (или после опроса на стратсессии с большой группой). Метод разделения большой задачи на несколько небольших с последующей интеграцией результатов:

1️⃣ Значительно упрощает проверку работы нейросети (да-да, при решении уникальных задач мы всё ещё проверяем «руками», хотя бы выборочно).

2️⃣ Повышает качество работы нейросети (пока я делал пример для этого поста, даже Gemini с миллионом токенов ошибалась, если я просил сразу вывести 100 классифицированных ответов). А вот 25 в одном ответе — самое то! Ни одной ошибки!

Поэтому для решения большой задачи по классификации 100+ ответов сотрудников на открытый вопрос разделим ответ нейросети на «порции» по 25 элементов списка в каждом и попросим делать промежуточный итог в конце каждого ответа. А в конце «собрать» их в единую таблицу (что полностью воспроизводит идею 23го лайфхака).

Тогда проверка будет сведена сведена к (1) выборочному контролю качества классификации, (2) выборочному либо тотальному контролю правильности точности подсчета в каждом фрагменте и (3) тотальному контролю верности суммирования промежуточных таблиц. Ха, всего-то;)

Вот мой ПРОМПТ:

С этого момента и далее, когда ты анализируешь документ «результаты опроса сотрудников» в поисках повторяющихся токсичных проявлений руководителей, создавай саммари в конце каждого своего ответа в виде таблицы с колонками: "Номера записей", "Токсичное проявление", "Количество упоминаний в анализируемом фрагменте"

Раздели свой большой ответ на несколько ответов, чтобы мне было удобнее анализировать. В каждом ответе возьми по 25 примеров (всего их будет больше 100).

Например, если в твоем ответе 1 обнаружено 2 упоминания "Публичная критика" и 1 упоминание "Микроменеджмент", таблица должна выглядеть так:

| Номера записей | Токсичное проявление | Количество упоминаний в анализируемом фрагменте |
|---|---|---|---|
| номер записи Х1, номер записи Х2 | Публичная критика | 2 |
| номер записи Y | Микроменеджмент | 1 |

В конце анализа скомпонуй все таблицы в единую сводную таблицу, приведя все номера записей и указав общую сумму упоминаний каждого. Начни с самого часто встречающегося.


ОТВЕТ НЕЙРОСЕТИ (после нескольких «продолжи работу»)

В комментариях.

МОЯ ОЦЕНКА

Принцип (и промпт) прекрасен!

Безусловно, это замедлит вашу работу по сравнению с ситуацией, когда вы отдадите анализ большого документа целиком на откуп нейросети, однако добавит уверенности, что вы ничего не потеряли. А на текущем этапе развития нейросетей при решении уникальной задачи с файлом из нескольких сотен записей эта уверенность может появиться только после проверки.

Вы уж простите:)

Осталось всего 3 из 26!

Порадуйте огонечками — и будет следующий пост. А в комментах — пишите, как решаете объемные задачи, требующие проверки!

в каталог промптов и кейсов (их уже 28+)

на мой главный канал (пост «Хотите быть богатым — забудьте о страсти к продукту»)

BY Лаборатория Промптинга Mozlab


Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283

Share with your friend now:
tg-me.com/PromptLab_Mozlab/145

View MORE
Open in Telegram


telegram Telegram | DID YOU KNOW?

Date: |

Telegram hopes to raise $1bn with a convertible bond private placement

The super secure UAE-based Telegram messenger service, developed by Russian-born software icon Pavel Durov, is looking to raise $1bn through a bond placement to a limited number of investors from Russia, Europe, Asia and the Middle East, the Kommersant daily reported citing unnamed sources on February 18, 2021.The issue reportedly comprises exchange bonds that could be converted into equity in the messaging service that is currently 100% owned by Durov and his brother Nikolai.Kommersant reports that the price of the conversion would be at a 10% discount to a potential IPO should it happen within five years.The minimum bond placement is said to be set at $50mn, but could be lowered to $10mn. Five-year bonds could carry an annual coupon of 7-8%.

To pay the bills, Mr. Durov is issuing investors $1 billion to $1.5 billion of company debt, with the promise of discounted equity if the company eventually goes public, the people briefed on the plans said. He has also announced plans to start selling ads in public Telegram channels as soon as later this year, as well as offering other premium services for businesses and users.

telegram from hk


Telegram Лаборатория Промптинга Mozlab
FROM USA