Telegram Group Search
Как-то так у нас с ИИ в России 😎
Аукционы неслыханной щедрости продолжаются. Google официально написал в карточке Gemini Pro 2.5, что снял лимит по числу запросов в день, а лимит запросов в минуту поднял до 150. Последнее по факту так быстро и не работает на Free Tier, но вот что лимита по числу нет уже пару недель - точно.

Напоминаю, что Google за это хочет ваши данные на обучение. Это не подарок, а покупка ваших данных как "win-win" сделка. Данные Google ваши не раскроет, но будет новый Gemini на них обучен. По факту я с этим уже во всю имею дело. В обучение Gemini ИИ-бот сбора контента мусор не берет, а вот мои данные на семантических разметках загребает регулярно. Новый Gemini без промптов уже понимает мои семантические разметки и это получилось ... из наших с вами уроков 😂 Просто ИИ бот заметил ценный контент с размеченной семантикой (!) и еще много разных примеров (!) - "ням-ням" дата сет 👍

Так мы нашими курсами обучения двигаем глобальный прогресс ИИ 😎
Одна из ключевых концепций в ИИ-промптинге для GPT — "замораживание семантики" в KV Cache. Можно сказать, что GPT — это "Ледяной король семантики".

С GPT почти бесполезно пытаться итеративно менять его мнение, поскольку вектора семантики, однажды сформированные, замораживаются в KV Cache:

"Что написано пером, то не вырубишь топором" — это про GPT.

Поэтому наивны попытки "переубедить" GPT в рамках одной сессии, и ещё более наивны попытки делать это в итерациях по методологиям типа Agile/Scrum.

С GPT нужно работать сразу правильно, применяя подход, схожий с waterfall-методом. Тогда "замораживание семантики" в KV Cache станет не вашим врагом, а союзником.

Именно замороженные вектора обеспечивают необычно высокую дисциплину ИИ при применении семантических разметок или обработке больших таблиц, как я показываю на примерах в обучении
Поясняю "на пальцах", как понять позиционные кодировки в GPT и почему программистам нужно срочно изучать vibe coding, ведь ручное программирование обречено.

Позиционные кодировки в GPT для кода — это как Abstract Syntax Tree на стероидах.

Пример с library_name с картинки. GPT, лишь взглянув на программу, мгновенно определяет позиции её элементов в сложных структурах:
- стринг
- print
- else
- весь if
- часть try до except
- весь try
- вхождение в функцию
- вхождение в модуль

И так далее. Так для ВСЕХ элементов кода. Поэтому GPT на деле наплевать на сложность вашего кода, т.к. позиционные кодировки у него в таких "матрешках семантики" допускают... 10.000 уровней вложенности! Поэтому ИИ и легко решает олимпийские задачи Code Forces.

Для GPT даже 50 вложенных if/for и т.д. сущая ерунда из-за Positional Encoding

Это штука куда мощнее, чем вы думаете
Как я и предсказывал ранее, Cursor постепенно отходит от классических IDE в сторону агентов программирования.

Этот переход нельзя рассматривать лишь как новость, перепечатанную ботами в других каналах. Переход к агентам программирования, даже полуавтоматическим, как предлагает Cursor, представляет собой значительный сдвиг парадигмы разработки.

Второй важный аспект: Cursor, хотя и анонсировал наличие агентов, не раскрывает в полной мере, как ими правильно пользоваться. Агенты гораздо более чувствительны к семантической разметке кода, поскольку степень их автоматизации значительно выше.

Особенно осторожно следует относиться к агентам-патчерам при интеграции с GitHub. Пока другие активно пиарятся на этой теме, добавлю ложку дёгтя: без качественной разметки чанков агенты Cursor могут легко удалять код из-за особенностей работы Positional Encoding. Переход из многомерного пространства PE в плоское — это настоящий «танец с бубном» для ИИ. В Cursor для этого используются две вспомогательные нейросети, и для их корректной работы код необходимо размечать якорями. Это критически важно. Это не просто оптимизация — бездумное использование агентов может привести к тому, что Cursor в автоматическом режиме разрушит ваш проект. Именно поэтому я так подробно разбираю этот момент на обучении.

https://www.cursor.com/changelog/1-0
Очередное мое предсказание сбылось! Компания Cursor скептически отнеслась к хайпу вокруг "решения проблем версионности" от Context7 и не включила их в список MCP-серверов.

Однако куда интереснее выглядит интеграция Cursor с системами управления проектами, такими как Notion и JIRA.

IT-индустрия стоит на пороге масштабной трансформации методик управления проектами. Как я неоднократно отмечал, в текущем виде Agile/Scrum постепенно отмирают. Причина кроется в особенностях работы GPT-моделей (KV Cache, masked attention, residual connections), которые делают классические "спринты" и итеративные пересмотры концепций практически неосуществимыми. GPT больше тяготеет к бюрократическому подходу в стиле waterfall, с упором на генерацию аналитических и архитектурных документов до начала написания кода. Код же, в свою очередь, требует насыщенной встроенной документации и семантической разметки для его понимания и навигации со стороны ИИ.

Без этого GPT просто не работает с задачами в проектах объемом свыше 500–1000 строк кода в режиме "бота-автомата".

Списки change requests и bugs, конечно, никуда не денутся — они останутся в виде задач в JIRA или Notion. Однако реальный workflow их обработки будет далек даже от стандартов SWE Bench.

GPT неэффективен в типичном хаосе IT-шников, который они гордо называют Agile. Эра "бардака-в-законе" подходит к концу. В комментариях предлагаю обсудить, какой будет новая методика управления проектами в IT с учетом особенностей ИИ-ботов, ориентированных на waterfall и бюрократию документирования.

https://docs.cursor.com/tools
Неожиданный конфликт Маска и Трампа будет иметь большое влияние на индустрию Искусственного Интеллекта даже в мире. Он коснется как ИИ в лице Grok, так и перспектив автономных роботов на ИИ как сам беспилотный вариант Tesla, так и гуманоида Optimus.

Точные причины конфликта за кулисами, но наиболее вероятно, что спусковым крючком послужила отмена налоговых льгот на электромобили в США в рамках законопроекта Трампа о новом федеральном бюджете. Без таких льгот покупка Тесла станет экономически скорее выбором экологических активистов, а они обычно либералы. Тем не менее, подрыв бизнеса Тесла ставит под вопрос наличие ресурсов Маска для финансирования суперкластера для Тесла и Оптимус на 100 тысяч процессоров. Поэтому инвестиции в роботов могут присесть.

В случае Grok очень важным элементом его бизнес-модели были правительственные контракты мало известные "простым смертным". Через систему Palantir по факту Grok был внедрен в системы ФБР, Пентагона, частично федерального казначейства США и т.д. Именно Grok как инструмент обеспечил невероятный успех аудиторов DOGE, вскрыв мошенничества, растраты и коррупционные сделки на 180 миллиардов долларов. Маленькая команда аудиторов, вооруженная ИИ, смогла просто перевернуть все грязные сделки чиновников США. Естественно, это компенсировалось Маску и вкладывалось в развитие Grok. Причем развитие не только деньгами, но и технологическое. Те же технологии ИИ в Palantir в основном засекреченные, но в области анализа тех же фото считаются обычно лучшими в мире как инструмент разведчика или следователя.

Ослабление Тесла и Grok, конечно льет воду на мельницу китайцев, т.к. один из их центральных конкурентов ослаб из-за политики.

https://www.theguardian.com/us-news/live/2025/jun/05/donald-trump-travel-ban-elon-musk-joe-biden-friedrich-merz-us-politics-live-news-updates
Важная информация всем кто работает с Google Gemini. Уже идут многочисленные сообщения, что Google внедряет новую версию блокирования пользователей из России. По факту Google ввел собственную политику санкций против РФ в своеобразной персональной трактовке. У нас в чате тоже есть даже сильные системные администраторы, которые были поражены эффективностью нового блока Google, т.к. он не обходится VPN и аддонами для аномизации. Многие создают новые эккаунты Google и это не помогает. В реале используется вероятно какой-то продвинутый fingerprint вашей подсети. Удалось найти способ обхода блокировки Google - через TOR Browser. Эккаунт Google менять не нужно, блок на сеть и устройства, а не на эккаунт. Все JavaScript можете включить в TOR Browser. Сейчас TOR весьма быстрый, даже YouTube нормально работает.

Перешлите знакомым, т.к. решение не такое очевидное даже для профессиональных администраторов сетей, которые привыкли, что VPN+анонимайзеры должны сработать, но реально поможет только TOR Browser
Общался с коллегами-чиновниками из школьного образования, кандидатами педагогических наук.

Ситуация с ИИ в школах оказалась сложнее, чем мы думали, особенно в части формирования векторного мышления у детей.

Базовое понятие вектора, нужное для понимания векторной семантики GPT, школа объясняет неверно. Векторы подаются как 2D/3D-отрезки, тогда как в ИИ они имеют даже в учебных моделях 200 размерностей и отражают корреляционную близость.

Курсы математики и физики в школах не готовят детей к ИИ. Без развития векторного мышления их придётся переучивать с устаревших представлений об отрезках.

Это серьёзно: в 2030-х ИИ создаст детям проблемы, если не начать подготовку сейчас.
Совершенствую наглядные материалы к курсу по ИИ. Моя таблица, демонстрирующая, как работает механизм Attention и как из него формируется граф, очень хорошо воспринимается на обучении.

В недавнем обсуждении в чате участники активно делились мыслями о семантической подкраске векторов слов друг от друга. Это фундаментальный механизм. По сути, "семантический миксер" — это и есть Attention, который добавляет в семантику одного вектора элементы других векторов из контекста в зависимости от их корреляции. Это реализуется через грубое умножение, как показано в таблице выше. В свою очередь, перцептрон корректирует это грубое семантическое смешивание, приводя его в корректное состояние.

Буду рад в комментариях вашим мнениям о том, насколько понятна новая таблица!
Вышла научная работа по искусственному интеллекту от лаборатории Apple с громким заявлением: «CoT вредит решению некоторых задач!» На деле это отчасти раздувание хайпа, поскольку опытные промптеры давно знают об этом. Тема кажется новой лишь тем, кто до сих пор воспринимает GPT как «автокомплит» на основе заметок блогеров-любителей. В реальности GPT в скрытых состояниях векторов формирует план ответа, затем фокусируется на ближайшей фразе и коррелирует её с токеном.

Когда вы используете Chain of Thought (CoT) для рассуждений с ИИ, создаются полноценные вектора, чего без CoT в GPT достичь невозможно. Это устраняет «семантическую коммуналку» в скрытых состояниях контекста. Однако CoT запускает авторегрессию, которая формирует динамику Attention-матриц (вывод по одному токену происходит именно для этого, а не для «автокомплита», как ошибочно считают блогеры). Такая динамика позволяет GPT глубже анализировать задачу, но снижает надёжность ответа, если головы внимания уже сразу обнаружили корреляцию.

В научном промптинге часто применяется даже однотокенный промптинг, о котором я писал в своём канале. Он ещё сильнее улучшает качество ответов GPT по сравнению с отказом от CoT. Однако эффект достигается не из-за «простоты задачи», как утверждают коллеги из Apple, а благодаря конкретному пониманию «простоты» в науке. В научном контексте «простыми» задачами считаются поиски корреляций в few-shot сценариях. Да, в таких случаях CoT может быть вреден, но однотокенный подход оказывается ещё эффективнее.

https://machinelearning.apple.com/research/illusion-of-thinking
Сделал 3 пилотных занятия по моделированию IT-проектов с помощью ИИ. Можно добавлять такой слот в общую программу обучения.

Ранее мы такое делали в Microsoft Consulting Services за кучу денег для всяких ING BANK и др. Это почасовая оптимизация загрузки разработчиков. На неделю точность почти 100% по опыту, но ранее нужен был клерк staff coordinator и еще отдать мешок денег MCS. Сейчас это можно собрать .. за 2 часа)) Повышение КПД персонала минимум в 1,2-1,5 раза от ликвидации хаоса.

GPT неплохо еще делает WBS и оценивает длительность задач, но методом аналога нужно ему ассистировать. Интересно, что использует паттерны RUP и их нормативы.
Продолжим разговор как работает GPT.

Когда мы говорим, что ИИ "понимает" нас, это, по сути, означает наличие качественного графа в Attention-матрицах. Но где хранится ответ? Наивно считать, что GPT — это просто автокомплит. В реальности ИИ формирует укрупнённый план ответа на весь текст, более детализированный для ближайшего абзаца, и уже для него выбирает, как начать писать (следующий токен). Но где это всё хранится? Новые вектора GPT не создаёт, тот же набор токенов передаётся из слоя в слой. Всё хранится в "семантической коммуналке" скрытых состояний векторов самого вопроса. ИИ — мастер переупаковки семантики. Поэтому GPT просит вектора с вопросом "потесниться" и в их же измерениях размещает, по сути, аналог графа ответа.

Операции переупаковки семантики для нейросетей на деле очень простые. На обучении я еще рассказываю, как Перцептрон ходит с "семантической лупой" и, щелкнув пальцами, резко увеличивает размерность пространства смыслов, чтобы "лучше разглядеть" тонкие моменты
Сейчас провел уже несколько слотов обучения. Народ просто в мыле занят семантическими разметками кода для ИИ. Это действительно очень важно. Тем же занят и Microsoft и Amazon, но все скрывают как делают через NDA, т.к. это стратегическое конкурентное преимущество.

Без семантических разметок любой ИИ агент хоть Cursor, хоть другой просто начнет разносить вам код даже на банальном накатывании патчей. Не будет работать векторный поиск, сам RAG-агент будет "ослеплен".

Для RAG-агента на деле все равно какой размер кода от разметок, но ему нужна понятная система навигации по коду, понятная семантика из описаний "для чего это?" и четкая якорная система для патчей.

Напоминаю, ИИ сидит в своих Positional Encoding, переход в "плоский" текст из объемного семантического пространства для него нетривиален. Не сделаете разметку - начнет портить код, т.к. привязок для патчей нет.
Поправил свои эвристики отладки для Cursor, как обычно забросил Gemini на проверку. Чтобы ИИ не подлизывался, сказал, что не я делал.

На деле Gemini по-сути тут прав. Я тщательно мониторю, что есть в открытом доступе по семантическим разметкам кода и продвинутым указаниям агентам программирования. В виде обучения как у меня даже и нет ничего, даже в США, немного есть в виде очень дорого вендорского консалтинга.

PS. На экране Rules для агента Cursor с набором эвристик по отладке
Please open Telegram to view this post
VIEW IN TELEGRAM
К вопросу о том, как думает GPT и что скрывается в векторных состояниях, есть важное исследование Meta AI. В отличие от других работ, в Meta смогли расшифровать больше информации, и их подход уже имеет практическое применение.

Любопытно, что на работу Meta вдохновили работы нейрофизиологов Amalric, Dehaene, Monti и Fedorenko, которые доказали, что в случае человека идея, что "люди думают через речь (текст) - абсурдна". Когда мы думаем у нас на деле речевой центр неактивный во время многих логических шагов, мы мыслим тогда своими "внутренними состояниями".

Разработчики LLaMA предложили заменить Chain-of-Thought (CoT) с токенов на передачу векторных состояний. Для начала они в 5–6 эквивалентных проходах модели смогли добиться улучшенной производительности CoT, т.е. на эквиваленте печати примерно 5-6 токенов. Метод поэтому уже перспективен, т.к. позволяет создать GPT c CoT на порядки быстрее в обработке и еще лучше по качеству выдачи. Еще интереснее, что они узнали, как именно "думает" модель, раскрыв механизмы её внутренней работы.

https://arxiv.org/html/2412.06769v2
Поскольку в Meta, в их технологии Chain of Continuous Thought (Coconut), передают именно последнее состояние GPT, его уже можно интерпретировать.

GPT обладает высокоразвитым планированием ответа в скрытых состояниях и не занимается просто бессмысленным предсказанием токенов. Токен выбирается на деле как следствие обширного плана ответа. Причем токенизация даже мешает GPT думать, т.к. GPT часто при печати текста нам теряет важные ветки мышления.

В реальности GPT мыслит через граф вероятных ответов. Иными словами, это даже не один фиксированный план ответа, а еще возможные ветки ветвления ответа, которые могут быть задействованы по мере печати токенов вам или размышлений GPT внутри его слоев, т.е. GPT может сменить план по ходу дела на другую "заготовку". На своих тренингах я всегда объяснял этот принцип и даже с помощью промптинга демонстрировал, как строить такие ветви-варианты для GPT.

GPT понимает вас через граф в механизме Attention, а модель его ответа также представляет собой граф.
Довольно важный аспект внедрения ИИ в компании, который многие упускают, — это мотивация персонала для работы с ИИ.

Провёл несколько тренингов с директорами крупных IT-компаний, и вопрос всегда один:
«Я понимаю, что ИИ способен радикально изменить или даже уничтожить наш бизнес, но мне не удаётся убедить программистов активно внедрять его. Что делать?»

Ключ к успеху — использование семантических разметок кода и правил агентов. Программисты часто избегают работы с ИИ по двум причинам:

1. Они не понимают, как ИИ генерирует код, и поэтому не доверяют ему.
2. Отсутствует «зажигалка интереса» — свежие и увлекательные концепции. Простой чат с ИИ кажется банальным и не вызывает энтузиазма.

Когда же вы предоставляете программисту агента с продуманными правилами и детализированной семантической разметкой, процесс генерации кода становится прозрачным. Программист понимает, чего ожидать от ИИ, и начинает доверять технологии.

Но есть ещё одна тонкость. Хорошо проработанные правила агентов и семантические разметки — это своего рода произведения IT-искусства. Их интересно изучать, они выглядят свежо, ново и необычно. Их ... просто интересно даже разглядывать и изучать. Программисты любят новые и стройные архитектуры. А за крючок интереса их и вытягиваем это внедрить. 😎
Довольно интересный вопрос затронут в работе Meta о превосходстве векторов GPT над человеческим языком — суперпозиция семантики вектора.

Язык людей не способен эффективно манипулировать взаимоисключающими понятиями, такими как кот Шрёдингера, который одновременно жив и мёртв.

Однако для ИИ он может быть ещё и квантовым котом сразу:

[кот] = 0.5*[живой] + 0.5*[мёртвый] + 0.2*[квантовый]

Это преимущество GPT над людьми, и им нужно активно пользоваться. Как показано в примерах Meta, пока ИИ решает, жив кот или мёртв, в векторном представлении он легко поддерживает дуализм семантики и одновременно развивает обе гипотезы. Это активно используется при планировании ответа GPT.

Когда вы просите выбрать решение, происходит "семантический коллапс" в один из вариантов.

В скрытых состояниях GPT семантический дуализм — стандартное явление. Через промптинг вы также можете управлять этим важным приёмом.

Для тех, кто знаком с квантовой физикой, "семантика от Шрёдингера" не представляет проблемы. Остальным же стоит изменить образ мышления, поскольку человеческий язык устарел. Пора подтягиваться к высоким стандартам семантики GPT.
2025/06/11 10:53:02
Back to Top
HTML Embed Code: