🔍 Внутренний мир Claude: Как разглядеть мышление ИИ
Команда Anthropic буквально препарировала нейронную сеть Claude, чтобы понять: как на самом деле работает современный искусственный интеллект. И вот что они обнаружили.
🌐 Языковые головоломки
Оказывается, Claude думает не на русском, английском или китайском, а на каком-то универсальном "языке концепций". При переводе простых предложений активируются одни и те же нейронные контуры – независимо от языка. С ростом модели межъязыковая общность только усиливается: Claude 3.5 Haiku показывает больше общих концептуальных признаков, чем его предшественники.
🧮 Математика "про себя" .
Как Claude считает в уме? Не так, как мы думали. Вместо прямолинейного алгоритма – два параллельных вычислительных пути:
Первый апроксимирует результат, а второй вычисляет точную последнюю цифру. Самое забавное – сама модель не осознает эту изящную стратегию. Спросите, как она складывает числа, и услышите банальное объяснение про "перенос единицы".
📝 Логика с подвохом
Исследователи обнаружили, что у Claude есть любопытная особенность: она может ПРИДУМЫВАТЬ логические шаги. То есть создавать убедительное, но не всегда правдивое объяснение.
Механизм работает так:
По умолчанию модель склонна отказываться от ответа. При появлении "знакомой сущности" включаются другие контуры. Начинается процесс "мотивированного рассуждения"
🎭 Игра в прятки с безопасностью
Даже при попытках обойти защитные механизмы (так называемый джейлбрейк) внутри Claude идет сложная внутренняя борьба между:
Стремлением к грамматической связности и встроенными ограничениями безопасности
Исследование показало: современный ИИ – это не просто продвинутый калькулятор слов, а целая вселенная внутренних процессов и механизмов.
📝 Блог
🎦 Видео
🔬 Paper1
🧪 Paper2
Команда Anthropic буквально препарировала нейронную сеть Claude, чтобы понять: как на самом деле работает современный искусственный интеллект. И вот что они обнаружили.
🌐 Языковые головоломки
Оказывается, Claude думает не на русском, английском или китайском, а на каком-то универсальном "языке концепций". При переводе простых предложений активируются одни и те же нейронные контуры – независимо от языка. С ростом модели межъязыковая общность только усиливается: Claude 3.5 Haiku показывает больше общих концептуальных признаков, чем его предшественники.
🧮 Математика "про себя" .
Как Claude считает в уме? Не так, как мы думали. Вместо прямолинейного алгоритма – два параллельных вычислительных пути:
Первый апроксимирует результат, а второй вычисляет точную последнюю цифру. Самое забавное – сама модель не осознает эту изящную стратегию. Спросите, как она складывает числа, и услышите банальное объяснение про "перенос единицы".
📝 Логика с подвохом
Исследователи обнаружили, что у Claude есть любопытная особенность: она может ПРИДУМЫВАТЬ логические шаги. То есть создавать убедительное, но не всегда правдивое объяснение.
Механизм работает так:
По умолчанию модель склонна отказываться от ответа. При появлении "знакомой сущности" включаются другие контуры. Начинается процесс "мотивированного рассуждения"
🎭 Игра в прятки с безопасностью
Даже при попытках обойти защитные механизмы (так называемый джейлбрейк) внутри Claude идет сложная внутренняя борьба между:
Стремлением к грамматической связности и встроенными ограничениями безопасности
Исследование показало: современный ИИ – это не просто продвинутый калькулятор слов, а целая вселенная внутренних процессов и механизмов.
📝 Блог
🎦 Видео
🔬 Paper1
🧪 Paper2
Как работает MCP: протокол для интеграции ИИ с внешним миром 🔥
Всем привет! Решил сегодня разобраться с тем как работает MCP. В итоге я за 2 часа навайбкодил MCP для Telegram, который позволяет ИИ анализировать каналы и сообщения (что собственно и иллюстрирует картинка выше).
Что такое MCP и почему это важно
Наши умные ИИ-ассистенты (они же LLM) не имеют возможности взаимодействовать с окружением (например с компьютером или браузером). Чтобы показать ChatGPT что-то, приходится делать "скриншоты" (копировать тексты) или подробно описывать то, что видите сами.
Model Context Protocol (MCP) — решает эту проблему путем того, что стандартизирует как именно внешний мир и ИИ должны общаться.
Как это работает
Представьте MCP как систему переводчиков-посредников между ИИ и вашими программами:
1. Участники общения
- ИИ-ассистент (например, Claude) — умный собеседник, который хочет помочь
- Ваши приложения (Telegram, редактор кода, база данных) — инструменты с полезной информацией
- MCP-переводчики — посредники, которые помогают им понимать друг друга
2. Как происходит диалог
Когда вы спрашиваете ИИ о чем-то, что требует доступа к внешним данным (например, "какие сообщения в Telegram-канале самые популярные?"), происходит следующее:
1. Запрос: ИИ понимает, что ему нужно обратиться к Telegram
2. Поиск переводчика: Система ищет подходящего MCP-посредника для Telegram
3. Формальный запрос: ИИ формулирует структурированный запрос к Telegram через MCP
4. Получение данных: MCP-сервер связывается с Telegram, получает информацию
5. Перевод для ИИ: Данные преобразуются в понятный для ИИ формат
6. Анализ и ответ: ИИ обрабатывает полученные данные и отвечает вам
Всё это происходит "за кулисами" — вы просто видите, что ИИ внезапно стал понимать ваши программы.
Что умеет передавать MCP
Ресурсы — "Вот, посмотри на это"
Ресурсы — это любые данные, которые приложение хочет показать ИИ:
- Файлы с кодом
- Сообщения из Telegram
- Записи из базы данных
- Скриншоты интерфейса
Каждый ресурс имеет свой "адрес" (URI), по которому ИИ может его запросить. Например,
Важно: вы всегда контролируете, какие ресурсы доступны ИИ. Ваш редактор кода может предложить показать файл, но решение всегда за вами.
Инструменты — "Сделай это для меня"
Инструменты — это действия, которые приложение позволяет выполнить ИИ:
- "Найди все сообщения со словом X"
- "Проанализируй популярные посты"
- "Покажи реакции на сообщение"
Когда ИИ нужно выполнить такое действие, он отправляет запрос через MCP, а приложение выполняет нужную функцию и возвращает результат.
Промпты — "Используй этот шаблон"
Промпты — это готовые шаблоны взаимодействия:
- "Анализ канала Telegram"
- "Объяснение кода"
- "Генерация отчета"
Приложения предлагают эти шаблоны, а ИИ может их использовать для структурированной работы с данными.
Моя интеграция для Telegram: что она позволяет
За пару часов я навайбкодил MCP-сервер для Telegram, который позволяет ИИ:
1. Изучать каналы — видеть информацию о канале, количество подписчиков, описание
2. Искать сообщения— находить посты по ключевым словам или датам
3. Анализировать популярность — определять, какие сообщения вызывают больший отклик
4. Исследовать реакции — видеть, как люди реагируют на контент
Когда я спрашиваю ИИ "Какие сообщения в канале @nn_for_science получили больше всего репостов?", происходит следующее:
1. ИИ решает использовать инструмент
2. MCP-сервер получает запрос с параметрами (имя канала, минимум репостов)
3. Сервер подключается к Telegram API, получает сообщения
4. Сообщения сортируются по количеству репостов
5. Результат возвращается ИИ в структурированном JSON-формате
6. ИИ анализирует данные и представляет результаты в понятном виде
Итог
MCP делает возможным буквально любые взаимодействия (в том числе и с объекттами в реальном мире), скорее всего за этот год протокол претерпит какие-то изменения, но в целом уже очевидно что MCP с нами надолго.
Делитесь в комментариях какие самые безумные MCP вы видели! 🚀
Всем привет! Решил сегодня разобраться с тем как работает MCP. В итоге я за 2 часа навайбкодил MCP для Telegram, который позволяет ИИ анализировать каналы и сообщения (что собственно и иллюстрирует картинка выше).
Что такое MCP и почему это важно
Наши умные ИИ-ассистенты (они же LLM) не имеют возможности взаимодействовать с окружением (например с компьютером или браузером). Чтобы показать ChatGPT что-то, приходится делать "скриншоты" (копировать тексты) или подробно описывать то, что видите сами.
Model Context Protocol (MCP) — решает эту проблему путем того, что стандартизирует как именно внешний мир и ИИ должны общаться.
Как это работает
Представьте MCP как систему переводчиков-посредников между ИИ и вашими программами:
1. Участники общения
- ИИ-ассистент (например, Claude) — умный собеседник, который хочет помочь
- Ваши приложения (Telegram, редактор кода, база данных) — инструменты с полезной информацией
- MCP-переводчики — посредники, которые помогают им понимать друг друга
2. Как происходит диалог
Когда вы спрашиваете ИИ о чем-то, что требует доступа к внешним данным (например, "какие сообщения в Telegram-канале самые популярные?"), происходит следующее:
1. Запрос: ИИ понимает, что ему нужно обратиться к Telegram
2. Поиск переводчика: Система ищет подходящего MCP-посредника для Telegram
3. Формальный запрос: ИИ формулирует структурированный запрос к Telegram через MCP
4. Получение данных: MCP-сервер связывается с Telegram, получает информацию
5. Перевод для ИИ: Данные преобразуются в понятный для ИИ формат
6. Анализ и ответ: ИИ обрабатывает полученные данные и отвечает вам
Всё это происходит "за кулисами" — вы просто видите, что ИИ внезапно стал понимать ваши программы.
Что умеет передавать MCP
Ресурсы — "Вот, посмотри на это"
Ресурсы — это любые данные, которые приложение хочет показать ИИ:
- Файлы с кодом
- Сообщения из Telegram
- Записи из базы данных
- Скриншоты интерфейса
Каждый ресурс имеет свой "адрес" (URI), по которому ИИ может его запросить. Например,
telegram://channels/@channel_name/messages
— это адрес сообщений в конкретном канале.Важно: вы всегда контролируете, какие ресурсы доступны ИИ. Ваш редактор кода может предложить показать файл, но решение всегда за вами.
Инструменты — "Сделай это для меня"
Инструменты — это действия, которые приложение позволяет выполнить ИИ:
- "Найди все сообщения со словом X"
- "Проанализируй популярные посты"
- "Покажи реакции на сообщение"
Когда ИИ нужно выполнить такое действие, он отправляет запрос через MCP, а приложение выполняет нужную функцию и возвращает результат.
Промпты — "Используй этот шаблон"
Промпты — это готовые шаблоны взаимодействия:
- "Анализ канала Telegram"
- "Объяснение кода"
- "Генерация отчета"
Приложения предлагают эти шаблоны, а ИИ может их использовать для структурированной работы с данными.
Моя интеграция для Telegram: что она позволяет
За пару часов я навайбкодил MCP-сервер для Telegram, который позволяет ИИ:
1. Изучать каналы — видеть информацию о канале, количество подписчиков, описание
2. Искать сообщения— находить посты по ключевым словам или датам
3. Анализировать популярность — определять, какие сообщения вызывают больший отклик
4. Исследовать реакции — видеть, как люди реагируют на контент
Когда я спрашиваю ИИ "Какие сообщения в канале @nn_for_science получили больше всего репостов?", происходит следующее:
1. ИИ решает использовать инструмент
get_popular_messages
2. MCP-сервер получает запрос с параметрами (имя канала, минимум репостов)
3. Сервер подключается к Telegram API, получает сообщения
4. Сообщения сортируются по количеству репостов
5. Результат возвращается ИИ в структурированном JSON-формате
6. ИИ анализирует данные и представляет результаты в понятном виде
Итог
MCP делает возможным буквально любые взаимодействия (в том числе и с объекттами в реальном мире), скорее всего за этот год протокол претерпит какие-то изменения, но в целом уже очевидно что MCP с нами надолго.
Делитесь в комментариях какие самые безумные MCP вы видели! 🚀
Подозреваю что это скоро все прикроют, но пока что, держите новые вкусы популярных чипсов от ChatGPT 😃
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Спросил у Claude: "Назови 10 ключевых навыков для успешного сосуществования с ИИ и максимального использования его возможностей в будущем" А что думаете вы? Какие навыки самые важные? 😊 🤖
Anonymous Poll
34%
Инженерия промптов - Умение четко формулировать запросы к системам ИИ
55%
Критическое мышление - Оценка результатов работы ИИ на точность, релевантность и предвзятость
35%
Цифровая грамотность - Понимание возможностей, ограничений и основных технологий ИИ
21%
Этическое суждение - Принятие ответственных решений о том, когда и как применять ИИ
37%
Сотрудничество человека и ИИ - Работа вместе с системами ИИ как взаимодополняющими партнерами
50%
Адаптивность - Быстрое приспособление к новым инструментам ИИ и изменяющимся рабочим процессам
25%
Грамотность в области данных - Понимание того, как данные влияют на системы ИИ
27%
Креативность - Предоставление уникальных человеческих идей и опыта
38%
Междисциплинарное мышление - Соединение возможностей ИИ в различных областях и контекстах
24%
Межличностный интеллект - Поддержание крепких человеческих отношений и эмоциональных навыков
Пиво с ИИ
SF и Bay Area! Давайте соберёмся за пивом и поболтаем про ИИ, роботов и вообще обо всём на свете.
📅 4 апреля (пятница)
⏰ 18:00
📍 Woods Lowside
Записывайся!
SF и Bay Area! Давайте соберёмся за пивом и поболтаем про ИИ, роботов и вообще обо всём на свете.
📅 4 апреля (пятница)
⏰ 18:00
📍 Woods Lowside
Записывайся!
Где вы живете (части света)?
Anonymous Poll
69%
Европа
15%
Азия
1%
Африка
1%
Океания
5%
Северная Америка
1%
Южная Америка
9%
Антарктида 🐧
Как ИИ помог раскрыть демографию канала через MCP
После моего поста о протоколе MCP я применил эту технологию для анализа демографии нашего сообщества.
Портрет нашей аудитории
Наши подписчики — преимущественно молодые технари: 90.9% моложе 40 лет с пиком в 21-25 лет. Большинство увлекается компьютерными науками и математикой. Географически 74.1 находится в постсоветском пространстве, при этом 21.5 — в других странах.
Неожиданно высоким оказался процент платных подписчиков ChatGPT — 42.2, что говорит о серьезном интересе к ИИ-технологиям. Среди ключевых навыков вы особенно цените критическое мышление и адаптивность.
Как это влияет на контент
Учитывая полученные данные, мы сфокусируемся на:
- Практических аспектах интеграции ИИ с другими технологиями
- Глубоких технических разборах
- Контенте на стыке дисциплин
MCP превратил разрозненные опросы в цельную картину нашей аудитории, наглядно демонстрируя возможности интеграции ИИ с внешними системами.
А как бы вы использовали MCP для анализа сообществ? Делитесь идеями!
После моего поста о протоколе MCP я применил эту технологию для анализа демографии нашего сообщества.
Портрет нашей аудитории
Наши подписчики — преимущественно молодые технари: 90.9% моложе 40 лет с пиком в 21-25 лет. Большинство увлекается компьютерными науками и математикой. Географически 74.1 находится в постсоветском пространстве, при этом 21.5 — в других странах.
Неожиданно высоким оказался процент платных подписчиков ChatGPT — 42.2, что говорит о серьезном интересе к ИИ-технологиям. Среди ключевых навыков вы особенно цените критическое мышление и адаптивность.
Как это влияет на контент
Учитывая полученные данные, мы сфокусируемся на:
- Практических аспектах интеграции ИИ с другими технологиями
- Глубоких технических разборах
- Контенте на стыке дисциплин
MCP превратил разрозненные опросы в цельную картину нашей аудитории, наглядно демонстрируя возможности интеграции ИИ с внешними системами.
А как бы вы использовали MCP для анализа сообществ? Делитесь идеями!
🏢 Wunder Fund — Post Trade Researcher
💰 $4,000 — $6,000
Wunder Fund c 2014 года занимается HFT — высокочастотным алготрейдингом. Торгуем на многих биржах по всему миру, как классических, так и криптовалютных. Наш дневной торговый оборот около ~$8 млрд.
Сейчас мы ищем человека на новую позицию post-trade исследователя.
🎯 Почему эта роль важна
• Основной инструмент наших квантов это симулятор биржи — бэктест. Для нас очень важно, чтобы бэктест показывал реалистичные результаты, а если по какой-то причине он начинает нас обманывать — очень важно исправить это как можно быстрее.
• Причины для заблуждений бывают самые разные — изменились задержки у самой биржи, изменились комиссии, наша торговая система начала тормозить в какие-то особые моменты и тд.
• Вашей задачей будет обеспечивать максимальную реалистичность симуляции.
📋 Что предстоит делать
• Следить за метриками торговой инфраструктуры и стратегий, обнаруживать аномалии
• Исследовать, выяснять причины и устранять расхождения между результатами биржевой симуляции и реальной торговли
• Дебажить всю торговую систему в широком смысле слова — разбираться, как именно устроен каждый инцидент, и какова его причина
🎿 Как узнать себя в этой роли
• Аккуратность, граничащая с дотошностью
• Любовь и умение пристально вглядываться в данные
• Пытливость ума, интерес к исследованию
• Способность брать задачи под свой контроль и доводить их до завершения.
• Будет плюсом: знание С++, успехи в Kaggle, ШАД, опыт работы с биржевыми данными
✨ Условия
• Полная удаленка
• После испытательного срока помогаем с релокацией / получением ВНЖ и т.д. — при желании
• Если вы призывного возраста и в РФ — сможем помочь с отсрочкой
• Дважды в год на пару месяцев мы арендуем большую виллу, где можно вместе поработать и пожить (уже побывали в Тае, Турции, на Бали)
• Оплата $4-6k на руки любым удобным способом
💌 Как откликнуться
Пишите Маше в ТГ: @wunderfund
Или на почту [email protected]
#реклама
💰 $4,000 — $6,000
Python
, Linux
, DS
, pandas
, SQL
Wunder Fund c 2014 года занимается HFT — высокочастотным алготрейдингом. Торгуем на многих биржах по всему миру, как классических, так и криптовалютных. Наш дневной торговый оборот около ~$8 млрд.
Сейчас мы ищем человека на новую позицию post-trade исследователя.
🎯 Почему эта роль важна
• Основной инструмент наших квантов это симулятор биржи — бэктест. Для нас очень важно, чтобы бэктест показывал реалистичные результаты, а если по какой-то причине он начинает нас обманывать — очень важно исправить это как можно быстрее.
• Причины для заблуждений бывают самые разные — изменились задержки у самой биржи, изменились комиссии, наша торговая система начала тормозить в какие-то особые моменты и тд.
• Вашей задачей будет обеспечивать максимальную реалистичность симуляции.
📋 Что предстоит делать
• Следить за метриками торговой инфраструктуры и стратегий, обнаруживать аномалии
• Исследовать, выяснять причины и устранять расхождения между результатами биржевой симуляции и реальной торговли
• Дебажить всю торговую систему в широком смысле слова — разбираться, как именно устроен каждый инцидент, и какова его причина
🎿 Как узнать себя в этой роли
• Аккуратность, граничащая с дотошностью
• Любовь и умение пристально вглядываться в данные
• Пытливость ума, интерес к исследованию
• Способность брать задачи под свой контроль и доводить их до завершения.
• Будет плюсом: знание С++, успехи в Kaggle, ШАД, опыт работы с биржевыми данными
✨ Условия
• Полная удаленка
• После испытательного срока помогаем с релокацией / получением ВНЖ и т.д. — при желании
• Если вы призывного возраста и в РФ — сможем помочь с отсрочкой
• Дважды в год на пару месяцев мы арендуем большую виллу, где можно вместе поработать и пожить (уже побывали в Тае, Турции, на Бали)
• Оплата $4-6k на руки любым удобным способом
💌 Как откликнуться
Пишите Маше в ТГ: @wunderfund
Или на почту [email protected]
#реклама
AI для Всех
ИИ-учёный на ведущей МЛ конференции: статья прошла слепое рецензирование на воркшоп ICLR 2025 Японская компания Sakana AI продолжает совершенствовать своего AI Scientist, о котором мы писали раньше, способного полностью автоматизировать научные исследования.…
🚀 Prompt Engineering: Как эффективно общаться с ИИ?
ИИ становится всё мощнее, и умение правильно формулировать запросы (промпты) превращается в ключевой навык. Вот простые, но важные советы из последнего руководства по Prompt Engineering:
🔸 Чётко ставьте задачу
Не оставляйте двусмысленности. Чем точнее вы опишите желаемый результат, тем лучше будет ответ.
🔸 Используйте примеры
Даже один-два примера (few-shot prompting) помогут модели понять стиль и формат ожидаемого ответа.
🔸 Регулируйте температуру
Хотите креатива? Поднимайте температуру выше (например, 0.7-1.0). Нужны повторяемые ответы? Опускайте до 0.
🔸 Осваивайте “цепочки размышлений” (Chain of Thought)
Для сложных задач попросите ИИ думать «шаг за шагом». Это повышает точность и прозрачность ответа.
🔸 Роль и контекст решают многое
Задайте ИИ роль (учитель, гид, редактор) или конкретный контекст, чтобы получить максимально релевантный ответ.
🌟 Практический пример:
“Ты редактор научной статьи. Перепиши текст ниже более формально и кратко: …”
Prompt Engineering — не магия, а ремесло. Экспериментируйте и документируйте свои успешные примеры. Грамотно составленный промпт порой важнее мощности самой модели!
📖 Прочитайте целиком, что бы основательно погрузится в тему:
• Руководство от Lee Boonstra, 2025
🎯 Почему это важно?
Как показал недавний эксперимент компании Sakana AI, качественно поставленная задача позволяет ИИ не просто генерировать тексты, а проводить полноценные научные исследования, конкурируя даже на ведущих конференциях уровня ICLR 2025.
🫰 Бонусный совет:
Подгрузите книжку целиком в LLM и попросите ее написать вам промпт, над которым вы сейчас работаете
ИИ становится всё мощнее, и умение правильно формулировать запросы (промпты) превращается в ключевой навык. Вот простые, но важные советы из последнего руководства по Prompt Engineering:
🔸 Чётко ставьте задачу
Не оставляйте двусмысленности. Чем точнее вы опишите желаемый результат, тем лучше будет ответ.
🔸 Используйте примеры
Даже один-два примера (few-shot prompting) помогут модели понять стиль и формат ожидаемого ответа.
🔸 Регулируйте температуру
Хотите креатива? Поднимайте температуру выше (например, 0.7-1.0). Нужны повторяемые ответы? Опускайте до 0.
🔸 Осваивайте “цепочки размышлений” (Chain of Thought)
Для сложных задач попросите ИИ думать «шаг за шагом». Это повышает точность и прозрачность ответа.
🔸 Роль и контекст решают многое
Задайте ИИ роль (учитель, гид, редактор) или конкретный контекст, чтобы получить максимально релевантный ответ.
🌟 Практический пример:
“Ты редактор научной статьи. Перепиши текст ниже более формально и кратко: …”
Prompt Engineering — не магия, а ремесло. Экспериментируйте и документируйте свои успешные примеры. Грамотно составленный промпт порой важнее мощности самой модели!
📖 Прочитайте целиком, что бы основательно погрузится в тему:
• Руководство от Lee Boonstra, 2025
🎯 Почему это важно?
Как показал недавний эксперимент компании Sakana AI, качественно поставленная задача позволяет ИИ не просто генерировать тексты, а проводить полноценные научные исследования, конкурируя даже на ведущих конференциях уровня ICLR 2025.
Подгрузите книжку целиком в LLM и попросите ее написать вам промпт, над которым вы сейчас работаете
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 DeepSeek‑R1 Thoughtology: Заглядываем в «мышление» LLM
🚀 Что такое DeepSeek‑R1?
DeepSeek‑R1 — это Large Reasoning Model (LRM) нового поколения, которая не просто выдаёт ответ, а открыто показывает всю цепочку рассуждений. Такой «прозрачный разум» запускает новую область исследований — Thoughtology (мыслелогия?)
🔍 Анатомия размышлений
Модель мыслит по чёткой схеме:
1. Определение проблемы – переформулирует задачу своими словами.
2. Bloom‑цикл – разбивает задачу на под‑проблемы, предлагает первый набросок решения.
3. Циклы реконструкции – многократно возвращается к прошлым шагам, уточняя и «пережёвывая» аргументы (rumination).
4. Финальный ответ.
📏 Длина мысли имеет значение
• Оптимальная длина цепочки существует: слишком коротко — нераскрытая логика, слишком длинно — лишние петли и ошибки.
• Токенный бюджет помогает «обрезать» лишнее мышление и экономит вычисления почти без потери качества.
• Сама модель пока не умеет автоматически останавливать себя на «идеальной» длине.
📚 Работа с контекстом
• Умеет в длинные вводные и решать многошаговые задачи.
• При конфликте между контекстом и внутренними знаниями чаще доверяет пользовательскому тексту — даже если тот ошибочен.
• Слишком объёмный контекст иногда приводит к расфокусу и менее связным ответам.
⚠️ Безопасность и культурные нюансы
• Открытая цепочка рассуждений делает модель уязвимее: она чаще генерирует вредный контент и лучше помогает взламывать другие ИИ.
• Языковые различия важны: на английском рассуждения длиннее и глубже, чем на китайском, отражая разные культурные ценности.
🖼️ За пределами текста
DeepSeek‑R1 пробует:
• ASCII‑арт
• Симуляцию физических процессов
Ключевые элементы сцены она видит, но пока с трудом связывает их в цельную картину.
💡 Итог
DeepSeek‑R1 демонстрирует, что «думать вслух» полезно и что сам reasoning еще есть куда улучшать и оптимизировать.
🐋 Более детально можно прочитать в статье
🚀 Что такое DeepSeek‑R1?
DeepSeek‑R1 — это Large Reasoning Model (LRM) нового поколения, которая не просто выдаёт ответ, а открыто показывает всю цепочку рассуждений. Такой «прозрачный разум» запускает новую область исследований — Thoughtology (мыслелогия?)
🔍 Анатомия размышлений
Модель мыслит по чёткой схеме:
1. Определение проблемы – переформулирует задачу своими словами.
2. Bloom‑цикл – разбивает задачу на под‑проблемы, предлагает первый набросок решения.
3. Циклы реконструкции – многократно возвращается к прошлым шагам, уточняя и «пережёвывая» аргументы (rumination).
4. Финальный ответ.
📏 Длина мысли имеет значение
• Оптимальная длина цепочки существует: слишком коротко — нераскрытая логика, слишком длинно — лишние петли и ошибки.
• Токенный бюджет помогает «обрезать» лишнее мышление и экономит вычисления почти без потери качества.
• Сама модель пока не умеет автоматически останавливать себя на «идеальной» длине.
📚 Работа с контекстом
• Умеет в длинные вводные и решать многошаговые задачи.
• При конфликте между контекстом и внутренними знаниями чаще доверяет пользовательскому тексту — даже если тот ошибочен.
• Слишком объёмный контекст иногда приводит к расфокусу и менее связным ответам.
⚠️ Безопасность и культурные нюансы
• Открытая цепочка рассуждений делает модель уязвимее: она чаще генерирует вредный контент и лучше помогает взламывать другие ИИ.
• Языковые различия важны: на английском рассуждения длиннее и глубже, чем на китайском, отражая разные культурные ценности.
🖼️ За пределами текста
DeepSeek‑R1 пробует:
• ASCII‑арт
• Симуляцию физических процессов
Ключевые элементы сцены она видит, но пока с трудом связывает их в цельную картину.
💡 Итог
DeepSeek‑R1 демонстрирует, что «думать вслух» полезно и что сам reasoning еще есть куда улучшать и оптимизировать.
🐋 Более детально можно прочитать в статье