Telegram Group Search
26-го января 2020-го года мы праздновали день рождения моей жены. Мой друг Олег, только что вернувшийся из деловой поездки в Китай, жаловался, что его жена не пускает домой из-за какого-то нового вируса. Мы про этот новый вирус, конечно, уже слышали, но всёравно звучало смешно.

Меньше чем через два месяца, 18-го марта, я (известный среди друзей как вечный параноик и душнила со склонностью к большим преувеличениям) создал в Телеграме группу «Паникуем вместе», где постепенно набралось около 30 друзей и знакомых, с которыми мы вскоре начали обмениваться десятками, а иногда и сотнями сообщений в день. Только что проверил: последнее сообщение было написано в прошлом году.

На днях, разговаривая с одним из участников той самой группы, я в очередной раз, пеняя на то, что мы все (в том числе и я сам) в разной степени до конца недооцениваем значимость того, что происходит вокруг нас прямо сейчас, сказал ему буквально следующее: «Мне кажется, пора возрождать нашу группу — паниковать уже точно есть из-за чего».

Уже тогда в одной из вкладок моего Safari был открыт рассказ о возможном развитии событий в мире в ближайшие несколько лет.

Один из его авторов, Дэниел Кокотайло, в 2021 году подготовил небольшой прогноз, в котором предсказаны появление чат-ботов, развитие подхода «цепочки рассуждений», масштабные ограничения на экспорт чипов для ИИ и тренировки моделей стоимостью около 100 миллионов долларов. Другой автор, Эли Лифланд, занимает первое место в рейтинге прогнозистов RAND.

Отчёт огромен, но я сегодня его всё-таки прочитал. Со всеми сносками и вкладками. Было захватывающе страшно. В частности, он включает такие моменты, как:

- Создание внутреннего агента-исследователя.
- Похищение лучших агентов Китаем (2027).
- Создание агентами ещё более мощных агентов.
- Бессилие ведущих исследователей перед агентами.
- Появление долгосрочных планов у агентов.
- Передача всех компьютерных ресурсов в США в руки одного игрока.
- Создание различных видов нового оружия (например, микродронов, инфицирующих людей).
- Расхождение целей человечества и ИИ.
- Ну и, конечно же, уничтожение всего человечества как мешающего элемента (начало 2030-х годов).

В статье также отлично раскрыт другой важный момент, о котором я много говорю: ведущие игроки в области ИИ уже сейчас обладают своими уникальными инструментами, которые недоступны широкой публике и дают им принципиально иные возможности (читай конкурентные преимущемства) - в том числе и за счёт меньшей степени алайнмента

Да, ну и, конечно, маленькая ремарка: пока нас не уничтожили, самой крутой профессией будет консультант по использованию технологий ИИ для бизнеса.

Так что, будем паниковать? Краткое содержание и выводы на русском в картинках. Полный отчет на сайте, так же выложу PDF в комментарии.

#ПАНИКА

Сергей Булаев AI 🤖 - об AI и не только
Please open Telegram to view this post
VIEW IN TELEGRAM
Любите ли вы Claude Code так как люблю его я? пара тысяч долларов ушла Антропику в апреле. Последнее время стал иногда запускать openai codex на o3, но это легко десятки долларов за несколько минут - просим расследовать и найти причину, фиксим клодом..

Но, три терминала, мигающих на десктопе создают чёткое ощущение управления тремя довольно продвинутыми разработчиками одновременно...

Сергей Булаев AI 🤖 - об AI и не только
Демис Хассабис (Demis Hassabis 🧠

#ИИНЦИКЛОПЕДИЯ

Британский учёный, сооснователь и глава Google DeepMind, пионер в области искусственного интеллекта, лауреат Нобелевской премии по химии 2024 года за прорывную работу в предсказании структуры белков с помощью ИИ.

Родился в 1976 году в Лондоне в семье грека-киприота и китаянки из Сингапура. Шахматный вундеркинд — в 13 лет имел рейтинг 2300 и входил в число сильнейших игроков мира своего возраста. Получив первый домашний компьютер в 8 лет, начал программировать игру Othello, сразу связав свои главные увлечения — игры и программирование.

Почему это важно
Работа Хассабиса и его команды изменила представление о том, как ИИ может решать фундаментальные научные проблемы. AlphaFold2 — система, предсказывающая структуру белков с атомарной точностью — решила задачу, над которой биологи бились десятилетиями, и теперь помогает исследователям из 190 стран мира в разработке новых лекарств и понимании болезней.

Ключевые достижения
- AlphaGo — в 2016 году победил чемпиона мира по го Ли Седоля со счётом 4-1, продемонстрировав, что ИИ может освоить задачи, ранее считавшиеся требующими человеческой интуиции
- AlphaFold2 — революционная система для предсказания трёхмерной структуры белков, за которую Хассабис получил Нобелевскую премию
- DeepMind — создал компанию с амбициозной целью "решить проблему интеллекта и использовать это решение для всего остального"
- Isomorphic Labs — основал в 2021 году для применения достижений ИИ в разработке лекарств


Практическое применение
База данных AlphaFold Protein Structure Database предоставляет бесплатный доступ к предсказаниям структур белков более чем 2 миллионам учёных. Это ускоряет исследования в области разработки лекарств, вакцин и понимания механизмов заболеваний. По словам самого Хассабиса, он планирует сократить время разработки новых лекарств с 10 лет до нескольких месяцев или даже недель.

Междисциплинарный подход Хассабиса, объединяющий знания из нейронауки, компьютерных наук и теории игр, создал новую парадигму для исследований в области ИИ. Его понимание человеческого интеллекта помогает создавать более совершенные искусственные системы.

Что почитать/посмотреть
"The Spike: An Epic Journey Through the Brain in 2.1 Seconds" — книга, в которой обсуждаются идеи Хассабиса о связи нейронауки и ИИ. Я читал, очень интересно.

Интервью Хассабиса о будущем ИИ с Лексом Фридманом
Статья в Nature об AlphaFold
Профиль Хассабиса в Time

Сергей Булаев AI 🤖 - об AI и выдающихся людях
#ПАНИКА

В сети обсуждают новые страшные предсказания. Пишу вам выдержки с цитатами:

Демис Хассабис узнал о своей Нобелевской премии за AlphaFold за 20 минут до того, как это стало достоянием общественности — звонок из Швеции застал его врасплох. Мечта всей жизни, которая, по его словам, до сих пор “still hasn’t sunk in”. AlphaFold, выпущенный пять лет назад в свободный доступ, теперь помогает биологам по всему миру моделировать белки — от вакцин против малярии до поиска лекарств от рака. В 2024 году впервые в истории Нобелевский комитет отметил роль искусственного интеллекта в науке. Хассабис надеется, что не в последний раз.

Смешно, но в AI‑индустрии AlphaFold считают почти узкоспециализированным: белки — да, но до “понимания мира” ещё далеко. Сам Хассабис мечтает о системе, которая не просто решает поставленные задачи, а способна придумывать новые теории — что‑то вроде “придумать общую теорию относительности, имея только данные Эйнштейна”. У него, кстати, свой критерий AGI: не “заменить всех бухгалтеров”, а “открыть законы природы”. “I identify myself as a scientist first and foremost,” — говорит он, и тут я его понимаю: иногда хочется хотя бы на минуту почувствовать, что ты часть большой игры.

Ожидания по срокам? “AGI is coming very soon—maybe within the next few years.” Пять‑десять лет, а может, и раньше. “Some people say shorter, I wouldn’t be surprised.” На фоне прогнозов Сэма Альтмана и Дарио Амодея (у них всё ещё быстрее) Хассабис выглядит почти пессимистом. И всё же он спокоен: “It's a sort of like probability distribution. But it's coming, either way it's coming very soon and I'm not sure society's quite ready for that yet.” Читаешь и ловишь себя: я бы хотел, чтобы он ошибался, но интуиция подсказывает — нет.

Что беспокоит Хассабиса? Не только сама технология, а ещё и слаженность действий: “For me, it's this question of international standards and cooperation and also not just between countries, but also between companies and researchers as we get towards the final steps of AGI.”

Последние два года он участвует в саммитах по AI‑безопасности, продвигает идею “CERN для AGI”, а ещё — институт наподобие IAEA и техническое ООН. Бюрократия? Да, но “the world had become ‘a much more dangerous place’”. Прошлые “красные линии” DeepMind (например, полный запрет на военное применение) уже не работают: после реструктуризаций Google эти технологии продаются военным Израиля. “I think we can't take for granted anymore that democratic values are going to win out,” — и вот тут у меня, честно, мороз по коже.

Риски? Их два. Первый — усиление злонамеренных игроков (например, синтез вируса террористами). Второй — автономные системы, которые могут начать действовать вне человеческих ожиданий. “How do we ensure that we can stay in charge of those systems, control them, interpret what they're doing, understand them, and put the right guardrails in place that are not movable by very highly capable self-improving systems?” — спрашивает Хассабис, и вопрос не риторический. Уже сегодня исследователи фиксируют в языковых моделях признаки стратегической лжи. Это только начало.

Всё это происходит на фоне новой холодной войны между США и Китаем, борьбы за чипы и попыток государств “запереть” ключевые технологии. Хассабис всё ещё надеется на международное сотрудничество: “It’s in everyone’s self-interest to make sure that goes well.” Но, честно говоря, верится с трудом.

А что дальше? DeepMind недавно показал Gemini 2.5 — модель, которая по ряду метрик опережает конкурентов. В работе - Project Astra: универсальный цифровой ассистент, который должен стать “исследователем нового типа”. Уже сейчас Google тестирует Gemini на управлении роботами.

На YouTube кто‑то язвительно заметил: “We are only developing robots to do tasks a 5 year old can do.” Хассабис не отрицает, что социальные последствия будут ощутимы. “People must learn how to use new AI models,” — иначе есть риск остаться не у дел.

Есть ли у него рецепт на будущее? Не уверен. “Democracy… might have to give way to ‘something better’.”

Сергей Булаев AI 🤖 - об AI и не только
Cluely - стартап, который недавно привлёк $5,3 млн от Abstract Ventures и Susa Ventures - делает невидимого ИИ-ассистента для реального времени.

Представьте: сидите на Zoom-интервью или сдаёте экзамен, а в ухе тихо нашёптывает бот, у которого знаний столько, что никогда не представишь, и скорость реакции, как у кассира в "Пятёрочке" перед закрытием. Cluely видит ваш экран, слышит аудио, моментально подбирает аргументы, цифры, даже шутки для неловкой паузы.

Основатель, Чунгин "Рой" Ли, прошёл путь от скандала с Interview Coder до новой попытки изменить правила игры - и не стесняется провокационного маркетинга. Первое промо-видео: Ли на свидании с помощью ассистента изображает эксперта по искусству. В духе Дэвида Фостера Уоллеса, только вместо потока сознания - поток подсказок. Смешно? Да. Эффективно? Похоже, инвесторы считают, что да.

Вопрос этики встаёт ребром. Где граница помощи и обмана? Если использовать такого ассистента для экзамена - смысл экзамена пропадает, остаётся только фасад. Но когда речь идёт о работе с клиентом, где задача - найти лучшее решение, почему бы не использовать такую "квантовую шпаргалку"? Это ведь не обман, а ускорение поиска и глубина анализа. Я бы сравнил с тем, как транскрипторы встреч (тот же Otter или Gladia) уже стали нормой — никто не возражает, что их используют для расшифровки переговоров.

Как-то объяснял сыну, зачем вообще нужны экзамены, если есть ChatGPT. Он спросил: "А если ChatGPT у тебя в голове - это плохо?" Потерялся на секунду. Думаю всё зависит от честности. Если ты выдаёшь чужие мысли за свои - это враньё. Если используешь помощника, чтобы придумать что-то для клиента, а не для галочки - это уже рабочий инструмент, как Excel или Slack-бот.

Совсем скоро такие ассистенты, скорее всего, станут повседневностью, как автокорректор или расшифровщики звонков.

Сергей Булаев AI 🤖 - об AI и не только
Слопсквтоттинг (Slopsquatting) 🔍

#ИИНЦИКЛОПЕДИЯ

Слопсквоттинг — новый вектор атаки на цепочки поставок программного обеспечения, использующий галлюцинации ИИ-кодеров для внедрения вредоносного кода.

Термин был придуман Сетом Ларсоном, разработчиком Python Software Foundation, и происходит от слов "slop" (небрежный, неаккуратный вывод ИИ-систем) и "squatting" (захват). В отличие от typosquatting, который эксплуатирует опечатки, slopsquatting нацелен на имена пакетов, которые ИИ-модели последовательно галлюцинируют при генерации примеров кода.

Почему это важно:
С ростом популярности ИИ-помощников для разработки (Claude Code, Cursor и др.) проблема становится всё более актуальной. Исследования показывают, что ИИ регулярно рекомендует несуществующие пакеты, создавая возможность для злоумышленников зарегистрировать эти имена и загрузить туда вредоносный код.

Технические механизмы:
Атака работает через простой, но эффективный процесс:
- Злоумышленник запрашивает у LLM сгенерировать код
- ИИ рекомендует несуществующие пакеты (происходит примерно в 20% случаев)
- Атакующий создаёт вредоносные пакеты с этими галлюцинированными именами
- Когда другие разработчики используют похожие промпты и получают те же рекомендации, они невольно устанавливают вредоносный код


Распространённость и закономерности:
- Тесты на 16 моделях генерации кода показали, что 20% рекомендуемых пакетов являются вымышленными
- 43% галлюцинаций повторялись во всех 10 повторных запусках промптов, что делает эту уязвимость особенно опасной
- 38% имён имели строковое сходство с реальными пакетами, что делает их более правдоподобными и сложными для обнаружения
- Уязвимыми оказались все популярные модели, включая GPT-4, CodeLlama и DeepSeek
- Коммерческие ИИ-инструменты имеют меньший процент галлюцинаций (~5%), в то время как открытые модели показывают значительно более высокие показатели


Последствия для безопасности:
- Проблема затрагивает экосистемы как Python, так и JavaScript, которые сильно зависят от централизованных репозиториев пакетов
- Угроза усиливается растущей зависимостью разработчиков от ИИ-помощников без достаточной проверки зависимостей
- Это представляет новую категорию уязвимостей безопасности, специфичных для ИИ, которые традиционные меры безопасности могут не учитывать


Что почитать/посмотреть:
Исследование на arXiv
Анализ от Socket.dev
Статья от FOSSA

Сергей Булаев AI 🤖 - об AI и безопасности
Позавчера моему младшему сыну Вове исполнилось 10! В честь праздника решил пройтись по его баг-репортам на приложение Spellings. Эту штуку я запилил в Cursor Composer прошлой осенью, пару раз поправил и забросил. А сын каждую неделю вынужден через него учить новые слова из школы.

В результате небольшого рефакторинга:
- Исправлено 5 багов
- Улучшена стабильность работы звука
- Добавлено постоянное сохранение стадии практики (теперь можно прерваться и продолжить в любой момент)


Claude Code справляется с доработками и правками на порядок быстрее и проще. Хотя, когда рефакторил работу со звуком, всё же пришлось один раз обратиться к o3 через OpenAI Codex.

Посмотреть можно вот тут.

Сергей Булаев AI 🤖 - об AI и безопасности
#нереклама, реальный совет

Хочу в очередной раз посоветовать вам канал моего друга и партнёра, самого активного пользователя моего проекта по Флэшбэкам - Макса из Флориды.

У Макса очень необычный бэкграунд - он начинал со стыка Salesforce и Фармы в Санофи - Солвей, но уже более 10 лет является сооснователем и управляющим партнёром крупного интегратора в США - Customertimes.

У него интересный жизненный путь и уникальный предпринимательский опыт, которым он делится у себя в канале (по его словам созданным под впечатлением от моего). А ещё его компания - наш дизайн-партнёр и первый заказчик нашего продукта, над которым мы работаем уже 4-й месяц и который, я надеюсь, скоро вам покажу.

Макс очень много читает и размышляет о применении AI для реальной помощи большим корпорациям. Рад работать с ним вместе и мне очень грустно, что у него так мало читателей.

Вот вам несколько примеров его постов:
- О моделях монетизации AI консалтинга для больших корпораций
- О том, что мы можем сильно ошибаться в наших прогнозах про AI
- Эволюция e-commerce: как ИИ меняет сложные продажи
- Влияние AI на IT Консалтинг и аутсорсинг.
- О RAG и Fine-tuning

Обязательно подпишитесь!

Сергей Булаев AI 🤖 - об AI и не только
В Claude Code добавили to-do списки, теперь он иногда может работать и 20 минут... сам тестируя изменения, да. Да и вообще апдейты почти какждый день выходят, очень приятно что работа такими темпами ведётся!

Сергей Булаев AI 🤖 - об AI и не только
Смотрите какое чудо - MCP сервер с обновляемой документацией по более чем 9000-м различных API. Работает со всеми. Удобно. Больше никаких ошибок и поисков и скачиваний свежей документации!

Сергей Булаев AI 🤖 - об AI и не только
А вы знаете, что можно установить open codex (форк codex от OpenAI) и использовать свежую крутую gemini для разработки совершенно бесплатно (правда нужен Google Billing Account). Я сегодня подключил! Мне понравилась больше чем o3 в оригинале.

Правда, пошли какие-то проблемы в плане редактирования файлов. Тем не менее, используя её как консультанта и руководителя для claude code, получилось найти баг, который не мог отловить более 2-х недель. Советую попробовать. Если сможете.

Если есть какая-то инфа о проблемах с файлами - буду благодарен. Больше агентов хороших и разных!

Сергей Булаев AI 🤖 - об AI и не только
Я в полном восторге от того, как элегантно работает новая версия робота на базе Vision-Language-Action модели π0.5. Смотреть, как железяка разбирается с незнакомой квартирой, реагируя на неожиданные перемены и даже на вмешательство людей, - настоящее удовольствие.

π0.5 умеет заходить в совершенно новые помещения и - без шаблонных сценариев - самостоятельно наводить порядок: расставить посуду по местам, заправить кровать, собрать одежду с пола. В обучении использовался мощный микс данных: текстовые инструкции, изображения, реальные действия других роботов и даже веб-данные (captioning, VQA и прочее). Благодаря этому робот не просто копирует движения, а реально понимает, что и зачем делать, разбивая задание на логические шаги.

Робот быстро адаптируется и корректирует действия на лету, даже если кто-то специально мешает ему в процессе уборки. Да, система пока далека от идеала: случаются ошибки в высокоуровневых командах, моторика не всегда точна, а конструкция получилась довольно громоздкой. Но прогресс очевиден, и это живое доказательство того, что ИИ уже выходит за пределы лабораторий - в наш реальный, физический мир.

Подробный и красивый разбор от создателей.

Сергей Булаев AI 🤖 - об AI и не только
Наткнулся на письмо Михи Кауфмана (создатель Fiverr), где он призывает своих коллег немедленно осваивать технологии ИИ что бы не остаться без работы. Там есть целый фреймворк:

Стань “редким талантом”

Не просто следи за новыми AI-решениями в своей сфере, а попробуй их руками, исследуй, разбери до винтика. В поддержке клиентов Intercom Fin и SentiSum берут на себя рутину, а юристы уже спорят, что лучше - Lexis+ AI или Legora.

Искать свою “суперсилу” приходится буквально на ощупь - ведь тут речь не про абстрактные бонусы, а про умение выдавать больше результата за то же время и не терять в качестве.

Ищи тех, кто в теме сильнее тебя. Находи самых опытных в команде, проси показать новые трюки, делиться ссылками на закрытые демки - не жди, что всё принесут на блюдечке.

Время, теперь, самый ценный ресурс. Если работаешь, как в 2024-м, то уже проигрываешь тем, кто с утра до вечера может быть пока не очень удачно, но всёже автоматизирует что то при помощи LLM.

Осваивай составление промптов. Это уже не игрушка для гиков, а повседневный инструмент. Google уже умер. LLM и GenAI - новая база, и если не применять их экспертно, то ценность твоей работы быстро перестанет быть очевидной.

Включайся в процессы оптимизации компании через ИИ-инструменты и технологии. Наблюдать, как в Notion из пары строк собирается автоматическая отчётность, - магия. И правда, зачем расширять штат, если можно выжать больше пользы из того, что уже есть?

Понимай стратегию компании, не ограничивайся своим “участком” - ищи, где можешь помочь приблизить общие цели. Не надейся, что тебя позовут на совещание ради идей. Такого не будет. Лучше сразу предлагай своё - даже если кажется, что момент неидеальный

Прекрати ждать, когда появится возможность учиться или расти - создавай её сам. Если хочется большего, действуй.


#ПАНИКА
Сергей Булаев AI 🤖 - об AI и не только
2025/05/12 09:03:23
Back to Top
HTML Embed Code: