Telegram Group Search
🔍 Внутренний мир Claude: Как разглядеть мышление ИИ

Команда Anthropic буквально препарировала нейронную сеть Claude, чтобы понять: как на самом деле работает современный искусственный интеллект. И вот что они обнаружили.

🌐 Языковые головоломки

Оказывается, Claude думает не на русском, английском или китайском, а на каком-то универсальном "языке концепций". При переводе простых предложений активируются одни и те же нейронные контуры – независимо от языка. С ростом модели межъязыковая общность только усиливается: Claude 3.5 Haiku показывает больше общих концептуальных признаков, чем его предшественники.

🧮 Математика "про себя" .

Как Claude считает в уме? Не так, как мы думали. Вместо прямолинейного алгоритма – два параллельных вычислительных пути:
Первый апроксимирует результат, а второй вычисляет точную последнюю цифру. Самое забавное – сама модель не осознает эту изящную стратегию. Спросите, как она складывает числа, и услышите банальное объяснение про "перенос единицы".

📝 Логика с подвохом

Исследователи обнаружили, что у Claude есть любопытная особенность: она может ПРИДУМЫВАТЬ логические шаги. То есть создавать убедительное, но не всегда правдивое объяснение.

Механизм работает так:

По умолчанию модель склонна отказываться от ответа. При появлении "знакомой сущности" включаются другие контуры. Начинается процесс "мотивированного рассуждения"

🎭 Игра в прятки с безопасностью

Даже при попытках обойти защитные механизмы (так называемый джейлбрейк) внутри Claude идет сложная внутренняя борьба между:

Стремлением к грамматической связности и встроенными ограничениями безопасности

Исследование показало: современный ИИ – это не просто продвинутый калькулятор слов, а целая вселенная внутренних процессов и механизмов.

📝 Блог

🎦 Видео

🔬 Paper1

🧪 Paper2
Как работает MCP: протокол для интеграции ИИ с внешним миром 🔥

Всем привет! Решил сегодня разобраться с тем как работает MCP. В итоге я за 2 часа навайбкодил MCP для Telegram, который позволяет ИИ анализировать каналы и сообщения (что собственно и иллюстрирует картинка выше).

Что такое MCP и почему это важно

Наши умные ИИ-ассистенты (они же LLM) не имеют возможности взаимодействовать с окружением (например с компьютером или браузером). Чтобы показать ChatGPT что-то, приходится делать "скриншоты" (копировать тексты) или подробно описывать то, что видите сами.

Model Context Protocol (MCP) — решает эту проблему путем того, что стандартизирует как именно внешний мир и ИИ должны общаться.

Как это работает

Представьте MCP как систему переводчиков-посредников между ИИ и вашими программами:

1. Участники общения

- ИИ-ассистент (например, Claude) — умный собеседник, который хочет помочь
- Ваши приложения (Telegram, редактор кода, база данных) — инструменты с полезной информацией
- MCP-переводчики — посредники, которые помогают им понимать друг друга

2. Как происходит диалог

Когда вы спрашиваете ИИ о чем-то, что требует доступа к внешним данным (например, "какие сообщения в Telegram-канале самые популярные?"), происходит следующее:

1. Запрос: ИИ понимает, что ему нужно обратиться к Telegram
2. Поиск переводчика: Система ищет подходящего MCP-посредника для Telegram
3. Формальный запрос: ИИ формулирует структурированный запрос к Telegram через MCP
4. Получение данных: MCP-сервер связывается с Telegram, получает информацию
5. Перевод для ИИ: Данные преобразуются в понятный для ИИ формат
6. Анализ и ответ: ИИ обрабатывает полученные данные и отвечает вам

Всё это происходит "за кулисами" — вы просто видите, что ИИ внезапно стал понимать ваши программы.

Что умеет передавать MCP

Ресурсы — "Вот, посмотри на это"

Ресурсы — это любые данные, которые приложение хочет показать ИИ:
- Файлы с кодом
- Сообщения из Telegram
- Записи из базы данных
- Скриншоты интерфейса

Каждый ресурс имеет свой "адрес" (URI), по которому ИИ может его запросить. Например, telegram://channels/@channel_name/messages — это адрес сообщений в конкретном канале.

Важно: вы всегда контролируете, какие ресурсы доступны ИИ. Ваш редактор кода может предложить показать файл, но решение всегда за вами.

Инструменты — "Сделай это для меня"

Инструменты — это действия, которые приложение позволяет выполнить ИИ:
- "Найди все сообщения со словом X"
- "Проанализируй популярные посты"
- "Покажи реакции на сообщение"

Когда ИИ нужно выполнить такое действие, он отправляет запрос через MCP, а приложение выполняет нужную функцию и возвращает результат.

Промпты — "Используй этот шаблон"

Промпты — это готовые шаблоны взаимодействия:
- "Анализ канала Telegram"
- "Объяснение кода"
- "Генерация отчета"

Приложения предлагают эти шаблоны, а ИИ может их использовать для структурированной работы с данными.

Моя интеграция для Telegram: что она позволяет

За пару часов я навайбкодил MCP-сервер для Telegram, который позволяет ИИ:

1. Изучать каналы — видеть информацию о канале, количество подписчиков, описание
2. Искать сообщения— находить посты по ключевым словам или датам
3. Анализировать популярность — определять, какие сообщения вызывают больший отклик
4. Исследовать реакции — видеть, как люди реагируют на контент

Когда я спрашиваю ИИ "Какие сообщения в канале @nn_for_science получили больше всего репостов?", происходит следующее:

1. ИИ решает использовать инструмент get_popular_messages
2. MCP-сервер получает запрос с параметрами (имя канала, минимум репостов)
3. Сервер подключается к Telegram API, получает сообщения
4. Сообщения сортируются по количеству репостов
5. Результат возвращается ИИ в структурированном JSON-формате
6. ИИ анализирует данные и представляет результаты в понятном виде

Итог
MCP делает возможным буквально любые взаимодействия (в том числе и с объекттами в реальном мире), скорее всего за этот год протокол претерпит какие-то изменения, но в целом уже очевидно что MCP с нами надолго.

Делитесь в комментариях какие самые безумные MCP вы видели! 🚀
Подозреваю что это скоро все прикроют, но пока что, держите новые вкусы популярных чипсов от ChatGPT 😃
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Попросил ChatGPT «распаковать и немного упростить фото»
Спросил у Claude: "Назови 10 ключевых навыков для успешного сосуществования с ИИ и максимального использования его возможностей в будущем" А что думаете вы? Какие навыки самые важные? 😊 🤖
Anonymous Poll
34%
Инженерия промптов - Умение четко формулировать запросы к системам ИИ
55%
Критическое мышление - Оценка результатов работы ИИ на точность, релевантность и предвзятость
35%
Цифровая грамотность - Понимание возможностей, ограничений и основных технологий ИИ
21%
Этическое суждение - Принятие ответственных решений о том, когда и как применять ИИ
37%
Сотрудничество человека и ИИ - Работа вместе с системами ИИ как взаимодополняющими партнерами
50%
Адаптивность - Быстрое приспособление к новым инструментам ИИ и изменяющимся рабочим процессам
25%
Грамотность в области данных - Понимание того, как данные влияют на системы ИИ
27%
Креативность - Предоставление уникальных человеческих идей и опыта
38%
Междисциплинарное мышление - Соединение возможностей ИИ в различных областях и контекстах
24%
Межличностный интеллект - Поддержание крепких человеческих отношений и эмоциональных навыков
Пиво с ИИ

SF и Bay Area! Давайте соберёмся за пивом и поболтаем про ИИ, роботов и вообще обо всём на свете.

📅 4 апреля (пятница)
18:00
📍 Woods Lowside

Записывайся!
Как ИИ помог раскрыть демографию канала через MCP

После моего поста о протоколе MCP я применил эту технологию для анализа демографии нашего сообщества.

Портрет нашей аудитории

Наши подписчики — преимущественно молодые технари: 90.9% моложе 40 лет с пиком в 21-25 лет. Большинство увлекается компьютерными науками и математикой. Географически 74.1 находится в постсоветском пространстве, при этом 21.5 — в других странах.

Неожиданно высоким оказался процент платных подписчиков ChatGPT — 42.2, что говорит о серьезном интересе к ИИ-технологиям. Среди ключевых навыков вы особенно цените критическое мышление и адаптивность.

Как это влияет на контент

Учитывая полученные данные, мы сфокусируемся на:
- Практических аспектах интеграции ИИ с другими технологиями
- Глубоких технических разборах
- Контенте на стыке дисциплин

MCP превратил разрозненные опросы в цельную картину нашей аудитории, наглядно демонстрируя возможности интеграции ИИ с внешними системами.

А как бы вы использовали MCP для анализа сообществ? Делитесь идеями!
Новые Вэймо
📍 Alamo sq, SF
🏢 Wunder Fund — Post Trade Researcher

💰 $4,000 — $6,000

Python, Linux, DS, pandas, SQL

Wunder Fund c 2014 года занимается HFT — высокочастотным алготрейдингом. Торгуем на многих биржах по всему миру, как классических, так и криптовалютных. Наш дневной торговый оборот около ~$8 млрд.

Сейчас мы ищем человека на новую позицию post-trade исследователя.

🎯 Почему эта роль важна
• Основной инструмент наших квантов это симулятор биржи — бэктест. Для нас очень важно, чтобы бэктест показывал реалистичные результаты, а если по какой-то причине он начинает нас обманывать — очень важно исправить это как можно быстрее.
• Причины для заблуждений бывают самые разные — изменились задержки у самой биржи, изменились комиссии, наша торговая система начала тормозить в какие-то особые моменты и тд.
• Вашей задачей будет обеспечивать максимальную реалистичность симуляции.

📋 Что предстоит делать
• Следить за метриками торговой инфраструктуры и стратегий, обнаруживать аномалии
• Исследовать, выяснять причины и устранять расхождения между результатами биржевой симуляции и реальной торговли
• Дебажить всю торговую систему в широком смысле слова — разбираться, как именно устроен каждый инцидент, и какова его причина

🎿 Как узнать себя в этой роли
• Аккуратность, граничащая с дотошностью
• Любовь и умение пристально вглядываться в данные
• Пытливость ума, интерес к исследованию
• Способность брать задачи под свой контроль и доводить их до завершения.
• Будет плюсом: знание С++, успехи в Kaggle, ШАД, опыт работы с биржевыми данными

Условия
• Полная удаленка
• После испытательного срока помогаем с релокацией / получением ВНЖ и т.д. — при желании
• Если вы призывного возраста и в РФ — сможем помочь с отсрочкой
• Дважды в год на пару месяцев мы арендуем большую виллу, где можно вместе поработать и пожить (уже побывали в Тае, Турции, на Бали)
• Оплата $4-6k на руки любым удобным способом

💌 Как откликнуться
Пишите Маше в ТГ: @wunderfund
Или на почту [email protected]

#реклама
AI для Всех
ИИ-учёный на ведущей МЛ конференции: статья прошла слепое рецензирование на воркшоп ICLR 2025 Японская компания Sakana AI продолжает совершенствовать своего AI Scientist, о котором мы писали раньше, способного полностью автоматизировать научные исследования.…
🚀 Prompt Engineering: Как эффективно общаться с ИИ?

ИИ становится всё мощнее, и умение правильно формулировать запросы (промпты) превращается в ключевой навык. Вот простые, но важные советы из последнего руководства по Prompt Engineering:

🔸 Чётко ставьте задачу
Не оставляйте двусмысленности. Чем точнее вы опишите желаемый результат, тем лучше будет ответ.

🔸 Используйте примеры
Даже один-два примера (few-shot prompting) помогут модели понять стиль и формат ожидаемого ответа.

🔸 Регулируйте температуру
Хотите креатива? Поднимайте температуру выше (например, 0.7-1.0). Нужны повторяемые ответы? Опускайте до 0.

🔸 Осваивайте “цепочки размышлений” (Chain of Thought)
Для сложных задач попросите ИИ думать «шаг за шагом». Это повышает точность и прозрачность ответа.

🔸 Роль и контекст решают многое
Задайте ИИ роль (учитель, гид, редактор) или конкретный контекст, чтобы получить максимально релевантный ответ.

🌟 Практический пример:
“Ты редактор научной статьи. Перепиши текст ниже более формально и кратко: …”

Prompt Engineering — не магия, а ремесло. Экспериментируйте и документируйте свои успешные примеры. Грамотно составленный промпт порой важнее мощности самой модели!

📖 Прочитайте целиком, что бы основательно погрузится в тему:
Руководство от Lee Boonstra, 2025

🎯 Почему это важно?
Как показал недавний эксперимент компании Sakana AI, качественно поставленная задача позволяет ИИ не просто генерировать тексты, а проводить полноценные научные исследования, конкурируя даже на ведущих конференциях уровня ICLR 2025.

🫰Бонусный совет:
Подгрузите книжку целиком в LLM и попросите ее написать вам промпт, над которым вы сейчас работаете
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 DeepSeek‑R1 Thoughtology: Заглядываем в «мышление» LLM

🚀 Что такое DeepSeek‑R1?

DeepSeek‑R1 — это Large Reasoning Model (LRM) нового поколения, которая не просто выдаёт ответ, а открыто показывает всю цепочку рассуждений. Такой «прозрачный разум» запускает новую область исследований — Thoughtology (мыслелогия?)

🔍 Анатомия размышлений

Модель мыслит по чёткой схеме:
1. Определение проблемы – переформулирует задачу своими словами.
2. Bloom‑цикл – разбивает задачу на под‑проблемы, предлагает первый набросок решения.
3. Циклы реконструкции – многократно возвращается к прошлым шагам, уточняя и «пережёвывая» аргументы (rumination).
4. Финальный ответ.

📏 Длина мысли имеет значение

• Оптимальная длина цепочки существует: слишком коротко — нераскрытая логика, слишком длинно — лишние петли и ошибки.
Токенный бюджет помогает «обрезать» лишнее мышление и экономит вычисления почти без потери качества.
• Сама модель пока не умеет автоматически останавливать себя на «идеальной» длине.

📚 Работа с контекстом

• Умеет в длинные вводные и решать многошаговые задачи.
• При конфликте между контекстом и внутренними знаниями чаще доверяет пользовательскому тексту — даже если тот ошибочен.
• Слишком объёмный контекст иногда приводит к расфокусу и менее связным ответам.

⚠️ Безопасность и культурные нюансы

• Открытая цепочка рассуждений делает модель уязвимее: она чаще генерирует вредный контент и лучше помогает взламывать другие ИИ.
• Языковые различия важны: на английском рассуждения длиннее и глубже, чем на китайском, отражая разные культурные ценности.


🖼️ За пределами текста

DeepSeek‑R1 пробует:
ASCII‑арт
Симуляцию физических процессов

Ключевые элементы сцены она видит, но пока с трудом связывает их в цельную картину.

💡 Итог

DeepSeek‑R1 демонстрирует, что «думать вслух» полезно и что сам reasoning еще есть куда улучшать и оптимизировать.

🐋 Более детально можно прочитать в статье
2025/06/15 04:32:45
Back to Top
HTML Embed Code: