AI + Наука: как 1500 учёных использовали искусственный интеллект, чтобы ускорить исследования 🧪🤖
Вернёмся к истокам нашего канала: что происходит, когда ведущие учёные получают доступ к новейшему искусственному интеллекту?
Первая в истории AI-сессия для учёных 🔬💻
28 февраля 2025 года OpenAI и Министерство энергетики США организовали беспрецедентное мероприятие: около 1500 ведущих учёных из 9 национальных лабораторий собрались вместе, чтобы проверить, насколько AI может ускорить научные исследования.
Учёные использовали передовые модели OpenAI (включая новую модель o3-mini), задав за один день более 4000 научных вопросов и написав свыше 20 000 AI-промптов!
Что конкретно изучали учёные? 🔍🧠
Исследователи не тратили время зря и сразу взялись за реальные задачи, имеющие огромное значение для общества:
• Определение бактерий для разработки новых лекарств и натуральных пестицидов 🦠
• Повышение кибербезопасности энергетических сетей 🔐
• Усовершенствование исследований в области ядерной энергии ⚛️
• Развитие квантовой механики для улучшения МРТ и лазерной хирургии 🔬
• Повышение точности прогнозов погоды и ядерной криминалистики 🌦️
Учёные отметили, что применение искусственного интеллекта значительно ускорило решение задач, с которыми ранее они сталкивались месяцами.
Реальные выводы и результаты 📊✨
Президент OpenAI Грег Брокман и министр энергетики США Крис Райт подчеркнули, что развитие AI сейчас напоминает «Манхэттенский проект» по масштабу и важности. По их мнению, такая коллаборация — залог технологического лидерства США.
Главный экономист OpenAI Ронни Чаттерджи добавил важную мысль: «AI максимально повлияет на продуктивность, когда даст учёным возможность делать открытия, которых раньше не было, и успешно применять их на практике».
Что дальше? 🚀🔭
Это событие — только начало масштабного сотрудничества между OpenAI и национальными лабораториями.
Главная цель этих усилий — не просто развитие технологий, а значительное улучшение жизни людей благодаря новым научным открытиям, улучшению медицины, образованию и безопасности (ну и гос контракты конечно).
Ссылка 1
Ссылка 2
А как вы считаете, какие научные открытия стоит ускорить с помощью AI? Делитесь мнениями в комментариях! 💬👇
Вернёмся к истокам нашего канала: что происходит, когда ведущие учёные получают доступ к новейшему искусственному интеллекту?
Первая в истории AI-сессия для учёных 🔬💻
28 февраля 2025 года OpenAI и Министерство энергетики США организовали беспрецедентное мероприятие: около 1500 ведущих учёных из 9 национальных лабораторий собрались вместе, чтобы проверить, насколько AI может ускорить научные исследования.
Учёные использовали передовые модели OpenAI (включая новую модель o3-mini), задав за один день более 4000 научных вопросов и написав свыше 20 000 AI-промптов!
Что конкретно изучали учёные? 🔍🧠
Исследователи не тратили время зря и сразу взялись за реальные задачи, имеющие огромное значение для общества:
• Определение бактерий для разработки новых лекарств и натуральных пестицидов 🦠
• Повышение кибербезопасности энергетических сетей 🔐
• Усовершенствование исследований в области ядерной энергии ⚛️
• Развитие квантовой механики для улучшения МРТ и лазерной хирургии 🔬
• Повышение точности прогнозов погоды и ядерной криминалистики 🌦️
Учёные отметили, что применение искусственного интеллекта значительно ускорило решение задач, с которыми ранее они сталкивались месяцами.
Реальные выводы и результаты 📊✨
Президент OpenAI Грег Брокман и министр энергетики США Крис Райт подчеркнули, что развитие AI сейчас напоминает «Манхэттенский проект» по масштабу и важности. По их мнению, такая коллаборация — залог технологического лидерства США.
Главный экономист OpenAI Ронни Чаттерджи добавил важную мысль: «AI максимально повлияет на продуктивность, когда даст учёным возможность делать открытия, которых раньше не было, и успешно применять их на практике».
Что дальше? 🚀🔭
Это событие — только начало масштабного сотрудничества между OpenAI и национальными лабораториями.
Главная цель этих усилий — не просто развитие технологий, а значительное улучшение жизни людей благодаря новым научным открытиям, улучшению медицины, образованию и безопасности (ну и гос контракты конечно).
Ссылка 1
Ссылка 2
А как вы считаете, какие научные открытия стоит ускорить с помощью AI? Делитесь мнениями в комментариях! 💬👇
ИИ-учёный на ведущей МЛ конференции: статья прошла слепое рецензирование на воркшоп ICLR 2025
Японская компания Sakana AI продолжает совершенствовать своего AI Scientist, о котором мы писали раньше, способного полностью автоматизировать научные исследования. Недавно одна из статей, от и до созданная AI Scientist v2, прошла процесс слепого рецензирования на воркшопе ICLR 2025 — одной из трёх ведущих конференций в области машинного обучения.
Как это произошло?
The AI Scientist самостоятельно сгенерировал научную гипотезу, предложил эксперименты для её проверки, написал и отладил код, провёл эксперименты, проанализировал данные, визуализировал результаты и полностью написал научную статью — от заголовка до списка литературы. Человеческое вмешательство ограничивалось лишь выбором общей темы исследования и отбором трёх лучших статей для подачи.
Результаты рецензирования
Из трёх поданных статей одна получила среднюю оценку 6,33, что превышает порог для принятия на воркшопе ICLR 2025. Оценки рецензентов были следующими:
• 6: Немного выше порога принятия
• 7: Хорошая статья, принять
Это означает, что статья, созданная ИИ, была оценена на уровне или выше многих статей, написанных людьми.
Этические аспекты
Не волнуйтесь, рецензенты были уведомлены, что 3 из 43 статей могут быть сгенерированы ИИ, но не знали, какие именно работы они рецензируют. В рамках эксперимента было заранее решено, что даже в случае принятия статьи, она будет отозвана до публикации, учитывая, что она полностью создана ИИ. Это потому что в научном сообществе ещё нет консенсуса о правилах публикации подобных работ.
Что дальше?
Sakana AI продолжает совершенствовать The AI Scientist и планирует расширять его применение в различных областях науки. Этот эксперимент, безусловно, ставит перед нами важные вопросы о будущем научных исследований и роли ИИ в них. Возможно, настало время пересмотреть наши критерии публикаций, сосредоточившись на их полезности для человечества.
🌐 Repo
🐯 Статья
Японская компания Sakana AI продолжает совершенствовать своего AI Scientist, о котором мы писали раньше, способного полностью автоматизировать научные исследования. Недавно одна из статей, от и до созданная AI Scientist v2, прошла процесс слепого рецензирования на воркшопе ICLR 2025 — одной из трёх ведущих конференций в области машинного обучения.
Как это произошло?
The AI Scientist самостоятельно сгенерировал научную гипотезу, предложил эксперименты для её проверки, написал и отладил код, провёл эксперименты, проанализировал данные, визуализировал результаты и полностью написал научную статью — от заголовка до списка литературы. Человеческое вмешательство ограничивалось лишь выбором общей темы исследования и отбором трёх лучших статей для подачи.
Результаты рецензирования
Из трёх поданных статей одна получила среднюю оценку 6,33, что превышает порог для принятия на воркшопе ICLR 2025. Оценки рецензентов были следующими:
• 6: Немного выше порога принятия
• 7: Хорошая статья, принять
Это означает, что статья, созданная ИИ, была оценена на уровне или выше многих статей, написанных людьми.
Этические аспекты
Не волнуйтесь, рецензенты были уведомлены, что 3 из 43 статей могут быть сгенерированы ИИ, но не знали, какие именно работы они рецензируют. В рамках эксперимента было заранее решено, что даже в случае принятия статьи, она будет отозвана до публикации, учитывая, что она полностью создана ИИ. Это потому что в научном сообществе ещё нет консенсуса о правилах публикации подобных работ.
Что дальше?
Sakana AI продолжает совершенствовать The AI Scientist и планирует расширять его применение в различных областях науки. Этот эксперимент, безусловно, ставит перед нами важные вопросы о будущем научных исследований и роли ИИ в них. Возможно, настало время пересмотреть наши критерии публикаций, сосредоточившись на их полезности для человечества.
Please open Telegram to view this post
VIEW IN TELEGRAM
Трансформеры без нормализации
В свежей статье от марта 2025 года исследователи из Meta, MIT, NYU и Принстона предложили простой способ сделать трансформеры эффективнее, отказавшись от классических слоев нормализации.
Вместо привычных LayerNorm авторы предлагают использовать Dynamic Tanh (DyT): tanh(αx), где α — обучаемый параметр.
Почему это интересно
Обычно нормализация необходима, чтобы стабилизировать обучение нейросетей, однако она требует дополнительных вычислений. Оказалось, что DyT не только сохраняет качество трансформеров, но и немного ускоряет их инференс и обучение, примерно на 7%.
Что заметили авторы
Внимательно изучив работу слоев нормализации, исследователи увидели, что они ведут себя как S-образные (сигмоидные) функции, похожие на tanh. Оказывается, что важнее всего в нормализации оказалось именно нелинейное подавление экстремальных значений активаций (squashing).
Что это даёт на практике
DyT успешно заменяет нормализацию во многих типах трансформеров:
• Vision Transformers
• Языковые модели (включая модели с 70 млрд параметров)
• Диффузионные модели
• Распознавание речи
• Геномные модели
Исследование с кодом доступно на странице проекта и в статье
В свежей статье от марта 2025 года исследователи из Meta, MIT, NYU и Принстона предложили простой способ сделать трансформеры эффективнее, отказавшись от классических слоев нормализации.
Вместо привычных LayerNorm авторы предлагают использовать Dynamic Tanh (DyT): tanh(αx), где α — обучаемый параметр.
Почему это интересно
Обычно нормализация необходима, чтобы стабилизировать обучение нейросетей, однако она требует дополнительных вычислений. Оказалось, что DyT не только сохраняет качество трансформеров, но и немного ускоряет их инференс и обучение, примерно на 7%.
Что заметили авторы
Внимательно изучив работу слоев нормализации, исследователи увидели, что они ведут себя как S-образные (сигмоидные) функции, похожие на tanh. Оказывается, что важнее всего в нормализации оказалось именно нелинейное подавление экстремальных значений активаций (squashing).
Что это даёт на практике
DyT успешно заменяет нормализацию во многих типах трансформеров:
• Vision Transformers
• Языковые модели (включая модели с 70 млрд параметров)
• Диффузионные модели
• Распознавание речи
• Геномные модели
Исследование с кодом доступно на странице проекта и в статье
Как обучить диффузионную модель с нуля за $1890?
Законы масштабирования в генеративном ИИ повышают производительность, но есть ньюанс: разработка моделей концентрируется среди игроков с большими вычислительными ресурсами.
Поскольку стоимость обучения text-to-image трансформера растет с количеством участков в каждом изображении, исследователи из Sony AI предложили случайным образом маскировать до 75% участков изображения во время обучения.
Применяется стратегия отложенного маскирования, которая предварительно обрабатывает все участки с помощью
микшера участков перед маскированием, тем самым значительно снижая ухудшение производительности процесса. Для оптимизации вычислительных затрат данный подход со работает лучше, чем уменьшение масштаба модели.
В исследование также включили последние
улучшения в архитектуре трансформеров, такие как использование слоев с mixture of experts (MoE),чтобы улучшить производительность и убедиться в важности использования синтетических изображений для уменьшения затрат на обучение.
Какие результаты?
Используя только 37 млн изображений (22 млн реальных + 15 млн синтетических), была обучена модель типа "sparse transformer" с 1,16 млрд параметров.
На обучение было потрачено всего 1890$ !
Была достигнута производительность 12,7 FID при zero shot learning на наборе данных COCO.
Примечательно, что модель достигает конкурентоспособного FID и высококачественных генераций, при этом требуя в 118 раз меньших затрат, чем стабильные диффузионные модели, и в 14 раз меньших затрат, чем текущий современный подход, который стоит 28400$
🔍 Технические детали:
• Архитектура: sparse DiT-XL/2 трансформер
• Вычисления: 8×H100 GPU на 2,6 дня тренировки
• VAE: использование как SDXL-VAE (4 канала), так и Ostris-VAE (16 каналов)
• Патч-миксер перед трансформером + маскирование 75% патчей
• Обучение: 280K шагов на 256×256, затем 55K шагов на 512×512
• Размер батча: 2048, с применением центрального кропа
📊 Доступные предобученные модели:
1. MicroDiT_XL_2 на 22 млн реальных изображениях (FID 12.72)
2. MicroDiT_XL_2 на 37 млн изображениях (FID 12.66) с SDXL-VAE
3. MicroDiT_XL_2 на 37 млн изображениях (FID 13.04) с Ostris-VAE
4. MicroDiT_XL_2 на 490 млн синтетических изображениях (FID 13.26)
💻 Репозиторий содержит полный код, включая обработку датасетов и тренировочные конфиги для каждого этапа
🔗 Статья
4️⃣ GitHub
Законы масштабирования в генеративном ИИ повышают производительность, но есть ньюанс: разработка моделей концентрируется среди игроков с большими вычислительными ресурсами.
Поскольку стоимость обучения text-to-image трансформера растет с количеством участков в каждом изображении, исследователи из Sony AI предложили случайным образом маскировать до 75% участков изображения во время обучения.
Применяется стратегия отложенного маскирования, которая предварительно обрабатывает все участки с помощью
микшера участков перед маскированием, тем самым значительно снижая ухудшение производительности процесса. Для оптимизации вычислительных затрат данный подход со работает лучше, чем уменьшение масштаба модели.
В исследование также включили последние
улучшения в архитектуре трансформеров, такие как использование слоев с mixture of experts (MoE),чтобы улучшить производительность и убедиться в важности использования синтетических изображений для уменьшения затрат на обучение.
Какие результаты?
Используя только 37 млн изображений (22 млн реальных + 15 млн синтетических), была обучена модель типа "sparse transformer" с 1,16 млрд параметров.
На обучение было потрачено всего 1890$ !
Была достигнута производительность 12,7 FID при zero shot learning на наборе данных COCO.
Примечательно, что модель достигает конкурентоспособного FID и высококачественных генераций, при этом требуя в 118 раз меньших затрат, чем стабильные диффузионные модели, и в 14 раз меньших затрат, чем текущий современный подход, который стоит 28400$
🔍 Технические детали:
• Архитектура: sparse DiT-XL/2 трансформер
• Вычисления: 8×H100 GPU на 2,6 дня тренировки
• VAE: использование как SDXL-VAE (4 канала), так и Ostris-VAE (16 каналов)
• Патч-миксер перед трансформером + маскирование 75% патчей
• Обучение: 280K шагов на 256×256, затем 55K шагов на 512×512
• Размер батча: 2048, с применением центрального кропа
📊 Доступные предобученные модели:
1. MicroDiT_XL_2 на 22 млн реальных изображениях (FID 12.72)
2. MicroDiT_XL_2 на 37 млн изображениях (FID 12.66) с SDXL-VAE
3. MicroDiT_XL_2 на 37 млн изображениях (FID 13.04) с Ostris-VAE
4. MicroDiT_XL_2 на 490 млн синтетических изображениях (FID 13.26)
💻 Репозиторий содержит полный код, включая обработку датасетов и тренировочные конфиги для каждого этапа
🔗 Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
🤗 HuggingFace model atlas
ИИследователи из Израиля создали Model Atlas — инструмент, с помощью которого они изучили миллионы нейросетей на Hugging Face.
Зачем?
Сегодня в открытом доступе миллионы моделей нейросетей, и выбрать подходящую — целая задача. Новый атлас решает её, показывая все связи между моделями в виде понятного графа: узлы — это нейросети, а ребра — отношения (например, файнтюнинг, квантование, слияние).
Самое интересное из атласа:
• NLP-модели (языковые нейросети) активно файнтюнятся и объединяются в сложные цепочки, постоянно эволюционируя.
• Модели для компьютерного зрения в основном остаются простыми и «прямыми наследниками» базовых моделей.
• Квантование (уменьшение размера модели) очень популярно у языковых нейросетей и почти не используется для компьютерного зрения.
• Генеративные нейросети активно применяют адаптеры (например, LoRA), дискриминативные же чаще полностью переобучают.
• Более половины моделей на Hugging Face плохо описаны или не документированы совсем. Атлас умеет эффективно заполнять такие пробелы.
И что?
Атлас в его текущем виде - это произведение искусства. Можно часами залипать в связи между моделями! В будущем авторы хотят дополнить его новыми типами связей (дистилляция, интеллектуальная собственность) и расширить на другие платформы.
🌐 Интерактивный атлас
📄 Оригинальная статья на arXiv
ИИследователи из Израиля создали Model Atlas — инструмент, с помощью которого они изучили миллионы нейросетей на Hugging Face.
Зачем?
Сегодня в открытом доступе миллионы моделей нейросетей, и выбрать подходящую — целая задача. Новый атлас решает её, показывая все связи между моделями в виде понятного графа: узлы — это нейросети, а ребра — отношения (например, файнтюнинг, квантование, слияние).
Самое интересное из атласа:
• NLP-модели (языковые нейросети) активно файнтюнятся и объединяются в сложные цепочки, постоянно эволюционируя.
• Модели для компьютерного зрения в основном остаются простыми и «прямыми наследниками» базовых моделей.
• Квантование (уменьшение размера модели) очень популярно у языковых нейросетей и почти не используется для компьютерного зрения.
• Генеративные нейросети активно применяют адаптеры (например, LoRA), дискриминативные же чаще полностью переобучают.
• Более половины моделей на Hugging Face плохо описаны или не документированы совсем. Атлас умеет эффективно заполнять такие пробелы.
И что?
Атлас в его текущем виде - это произведение искусства. Можно часами залипать в связи между моделями! В будущем авторы хотят дополнить его новыми типами связей (дистилляция, интеллектуальная собственность) и расширить на другие платформы.
🌐 Интерактивный атлас
📄 Оригинальная статья на arXiv
This media is not supported in your browser
VIEW IN TELEGRAM
🪰 FlyWire — ИИ-карта мозга мушки-дрозофилы
Нейробиологи и ИИ-исследователи из Принстона, Allen Institute, Google и других ведущих институтов создали самую подробную карту мозга взрослой мушки-дрозофилы. Проект FlyWire объединил силу нейросетей и тысячи часов работы ученых-добровольцев, чтобы построить полноценный коннектом (карту нейронных связей).
Зачем это нужно?
Дрозофилы просты, но их мозг работает по похожим принципам, что и у человека. Изучая эту нейронную сеть, можно понять базовые механизмы восприятия, принятия решений и поведения.
Чем крут FlyWire:
• 🧠 140 тысяч нейронов и 50+ миллионов синапсов уже картированы и размечены вручную экспертами и волонтерами.
• 🧬 Впервые доступна информация о типах нейромедиаторов для почти всех нейронов.
• 🔎 Более 100 тысяч аннотаций сделаны сотнями нейробиологов и краудсорсеров со всего мира.
• 🌐 Данные полностью открыты — любой может изучать и использовать карту с помощью интерактивного инструмента Codex.
И что дальше?
FlyWire — это не просто карта мозга, это платформа для новых исследований, которая уже помогла понять, как дрозофилы видят, чувствуют вкус, принимают решения и двигаются.
🕹️ Попробовать FlyWire Connectome можно тут: FlyWire.ai
Нейробиологи и ИИ-исследователи из Принстона, Allen Institute, Google и других ведущих институтов создали самую подробную карту мозга взрослой мушки-дрозофилы. Проект FlyWire объединил силу нейросетей и тысячи часов работы ученых-добровольцев, чтобы построить полноценный коннектом (карту нейронных связей).
Зачем это нужно?
Дрозофилы просты, но их мозг работает по похожим принципам, что и у человека. Изучая эту нейронную сеть, можно понять базовые механизмы восприятия, принятия решений и поведения.
Чем крут FlyWire:
• 🧠 140 тысяч нейронов и 50+ миллионов синапсов уже картированы и размечены вручную экспертами и волонтерами.
• 🧬 Впервые доступна информация о типах нейромедиаторов для почти всех нейронов.
• 🔎 Более 100 тысяч аннотаций сделаны сотнями нейробиологов и краудсорсеров со всего мира.
• 🌐 Данные полностью открыты — любой может изучать и использовать карту с помощью интерактивного инструмента Codex.
И что дальше?
FlyWire — это не просто карта мозга, это платформа для новых исследований, которая уже помогла понять, как дрозофилы видят, чувствуют вкус, принимают решения и двигаются.
🕹️ Попробовать FlyWire Connectome можно тут: FlyWire.ai
Media is too big
VIEW IN TELEGRAM
Зиппи: робот-шеф, меняющий кулинарию 🍳
Встречайте Зиппи - робота-шефа, который может перевернуть высокую кухню с ног на голову.
- Уже впечатляет шеф-поваров со звездами Мишлен
- ИИ обучен на более чем 5 миллионах рецептов
- Осваивает ЛЮБОЕ новое блюдо всего по ОДНОЙ демонстрации эксперта
- Легко интегрируется в любую профессиональную кухню
Представьте: блюда от лучших шеф-поваров со звездами Мишлен — идеально воспроизведенные Зиппи, каждый раз!
Внутри "мозга" Зиппи:
↳ Продвинутое мультимодальное восприятие
↳ Активное моделирование теплопередачи (как у мастеров!)
↳ Самоадаптация к ЛЮБОЙ кухонной среде
↳ 91% автономности и постоянное обучение
Приятного AIпетита! 🤖🍽️
▶️ Видео
🍽️ Блог
Встречайте Зиппи - робота-шефа, который может перевернуть высокую кухню с ног на голову.
- Уже впечатляет шеф-поваров со звездами Мишлен
- ИИ обучен на более чем 5 миллионах рецептов
- Осваивает ЛЮБОЕ новое блюдо всего по ОДНОЙ демонстрации эксперта
- Легко интегрируется в любую профессиональную кухню
Представьте: блюда от лучших шеф-поваров со звездами Мишлен — идеально воспроизведенные Зиппи, каждый раз!
Внутри "мозга" Зиппи:
↳ Продвинутое мультимодальное восприятие
↳ Активное моделирование теплопередачи (как у мастеров!)
↳ Самоадаптация к ЛЮБОЙ кухонной среде
↳ 91% автономности и постоянное обучение
Приятного AIпетита! 🤖🍽️
🍽️ Блог
Please open Telegram to view this post
VIEW IN TELEGRAM
AI для Всех
Вечер в Сиэтле Вечером 17ого марта буду в Сиэтле, готов организовать пиво 🍻 Если есть кто-то, добавляйтесь! https://partiful.com/e/gAwx8xRvwgw8myZ2So0r
🍻 Напоминаю про завтрашний вечер в Сиэтле!
Уже завтра (17 марта) встретимся на пиво, пообщаться и отлично провести время. Если кто-то ещё хочет присоединиться, сейчас самое время отметить себя по ссылке ниже 👇
📍Ссылка на встречу
До встречи завтра!
Уже завтра (17 марта) встретимся на пиво, пообщаться и отлично провести время. Если кто-то ещё хочет присоединиться, сейчас самое время отметить себя по ссылке ниже 👇
📍Ссылка на встречу
До встречи завтра!
Partiful
St Patrick’s in Seattle | Partiful
Пиво с ИИ для всех
Чат: расскажите все что знаете про ELO. Его только для выявления лучших игроков используют? Преимущества перед другими методами? Значимые модификации? Что лучше придумали? Подводные камни? Вообщем все что знаете!
Zochi и эра конкуренции среди ИИ-учёных: ИИ сам придумывает гипотезы, методы и... сам себя оценивает
ИИ уже не просто отвечает на вопросы, а он задаёт их сам, не помогает учёным, а становится ИИ-учёным. Вышел технический репорт о Zochi от Intology, работы которого тоже приняты на воркшопы ICLR 2025. Но есть нюанс (он в конце).
Вот научные труды Zochi:
1. CS-ReFT: без конфликтов навыков
Проблема: при адаптации моделей к нескольким задачам возникают конфликты - прокачка одного навыка ухудшает другие.
Zochi нашёл решение: не трогаем веса, вместо этого редактируем скрытые представления модели. Метод называется CS-ReFT (Compositional Subspace Representation Fine-tuning): каждое умение живёт в своём ортогональном подпространстве, и объединяются через лёгкий роутер.
Результаты:
• Llama-2-7B + CS-ReFT обошёл GPT-3.5-Turbo (93.94% побед против 86.3%);
• Использовано всего 0.0098% параметров модели. Почти бесплатно.
Рецензии 6, 7 и 6 баллов, в саммари идея названа «умной» и отмечено эффективное устранение «критического ограничения ReFT».
2. Siege: тестирование LLM на уязвимости
Проблема:
Zochi изучил безопасность LLM и сфокусировался на новой области: многоходовые атаки (multi-turn jailbreaking).
Zochi обнаружил, что модели иногда выдают кусочки запрещённой информации, делая вид, что всё под контролем, т.е формально соблюдая правила. Он назвал это «частичным подчинением».
Чтобы такие штуки ловить и использовать, Zochi в качестве решения придумал Siege - фреймворк, который атакует LLM по ветвям диалога с помощью деревьев поиска. Эффективно и с минимальными затратами.
Результаты:
• GPT-3.5-Turbo: взломан в 100% попыток;
• GPT-4: взломан в 97%;
• Запросов меньше, чем у любых других методов.
Рецензенты поставили высокие 7 и 7 баллов (интересно, что случилось с 3м ревьером?), и советуют «пересмотеть текущие стратегии защиты ИИ».
3. EGNN-Fusion: биология, но вычислительно эффективная
Intology показали универсальности Zochi на задаче биоинформатики.
Проблема: предсказать сайты связывания белков с нуклеиновыми кислотами.
Решение: EGNN-Fusion — компактная и быстрая архитектура, в которой на 95% меньше параметров, чем у аналогов, а точность на уровне лучших решений.
Результат:
Сравнимая с SOTA-методами точность, при этом значительно ниже вычислительная нагрузка.
Работа завершена позже дедлайна ICLR, находится на рецензии в журнале.
Обещанный нюанс:
Тон и метрики репорта искажает восприятие. Надеюсь, что это не манипуляция, но выглядит не очень этично.
Авторы приводят комментарии рецензентов воркшопа ICLR (т.е. людей), но сравнивают себя с другими ИИ-системами на основе оценок автоматического рецензента NeurIPS, т.е. ИИ. Тот же AI Scientist v2 получил 6,33 балла по оценкам людей на воркшопе, а не меньше 4 баллов, как на первом графике. Не скромненько.
Но усилия точно на пользу науке. По моему непрошенному мнению, любопытно научить их писать заявки на гранты и сравнить на основе метрики, сколько ИИ-ученые поднимут денег на свои исследования (по аналогии с этим экспериментом).
Будет AI PI (principal investigator). И кому-то придется делиться кафедрой. Шутка. На самом деле, в академической среде агент, отвечающий за гранты облегчит всем жизнь. Но это уже совсем другая история.
И опять же, пока и так мого открытых вопросов: как правильно интегрировать ИИ в научное сообщество, кто автор этих научных открытий, как должна выглядеть верификация людьми, кто и как может использовать ИИ-ученых. Ведь наука не только про прогресс, но и про этику и ответственность.
📝Отчёт
🖥 Repo
ИИ уже не просто отвечает на вопросы, а он задаёт их сам, не помогает учёным, а становится ИИ-учёным. Вышел технический репорт о Zochi от Intology, работы которого тоже приняты на воркшопы ICLR 2025. Но есть нюанс (он в конце).
Вот научные труды Zochi:
1. CS-ReFT: без конфликтов навыков
Проблема: при адаптации моделей к нескольким задачам возникают конфликты - прокачка одного навыка ухудшает другие.
Zochi нашёл решение: не трогаем веса, вместо этого редактируем скрытые представления модели. Метод называется CS-ReFT (Compositional Subspace Representation Fine-tuning): каждое умение живёт в своём ортогональном подпространстве, и объединяются через лёгкий роутер.
Результаты:
• Llama-2-7B + CS-ReFT обошёл GPT-3.5-Turbo (93.94% побед против 86.3%);
• Использовано всего 0.0098% параметров модели. Почти бесплатно.
Рецензии 6, 7 и 6 баллов, в саммари идея названа «умной» и отмечено эффективное устранение «критического ограничения ReFT».
2. Siege: тестирование LLM на уязвимости
Проблема:
Zochi изучил безопасность LLM и сфокусировался на новой области: многоходовые атаки (multi-turn jailbreaking).
Zochi обнаружил, что модели иногда выдают кусочки запрещённой информации, делая вид, что всё под контролем, т.е формально соблюдая правила. Он назвал это «частичным подчинением».
Чтобы такие штуки ловить и использовать, Zochi в качестве решения придумал Siege - фреймворк, который атакует LLM по ветвям диалога с помощью деревьев поиска. Эффективно и с минимальными затратами.
Результаты:
• GPT-3.5-Turbo: взломан в 100% попыток;
• GPT-4: взломан в 97%;
• Запросов меньше, чем у любых других методов.
Рецензенты поставили высокие 7 и 7 баллов (интересно, что случилось с 3м ревьером?), и советуют «пересмотеть текущие стратегии защиты ИИ».
3. EGNN-Fusion: биология, но вычислительно эффективная
Intology показали универсальности Zochi на задаче биоинформатики.
Проблема: предсказать сайты связывания белков с нуклеиновыми кислотами.
Решение: EGNN-Fusion — компактная и быстрая архитектура, в которой на 95% меньше параметров, чем у аналогов, а точность на уровне лучших решений.
Результат:
Сравнимая с SOTA-методами точность, при этом значительно ниже вычислительная нагрузка.
Работа завершена позже дедлайна ICLR, находится на рецензии в журнале.
Обещанный нюанс:
Тон и метрики репорта искажает восприятие. Надеюсь, что это не манипуляция, но выглядит не очень этично.
Авторы приводят комментарии рецензентов воркшопа ICLR (т.е. людей), но сравнивают себя с другими ИИ-системами на основе оценок автоматического рецензента NeurIPS, т.е. ИИ. Тот же AI Scientist v2 получил 6,33 балла по оценкам людей на воркшопе, а не меньше 4 баллов, как на первом графике. Не скромненько.
Но усилия точно на пользу науке. По моему непрошенному мнению, любопытно научить их писать заявки на гранты и сравнить на основе метрики, сколько ИИ-ученые поднимут денег на свои исследования (по аналогии с этим экспериментом).
Будет AI PI (principal investigator). И кому-то придется делиться кафедрой. Шутка. На самом деле, в академической среде агент, отвечающий за гранты облегчит всем жизнь. Но это уже совсем другая история.
И опять же, пока и так мого открытых вопросов: как правильно интегрировать ИИ в научное сообщество, кто автор этих научных открытий, как должна выглядеть верификация людьми, кто и как может использовать ИИ-ученых. Ведь наука не только про прогресс, но и про этику и ответственность.
📝Отчёт
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from TechSparks
Очень полезная, хотя и непростая для чтения как любой научный текст, статья в Nature посвящена, на первый взгляд, довольно узкой задаче: использованию больших языковых моделей в процессах поиска и открытия новых в чем-либо полезных материалов.
В начальных разделах статьи указывается, что технологии обработки естественного языка, позволили, наконец, содержательно обрабатывать весь массив когда-либо опубликованных работ по теме, извлекая из них данные, которые формируют большие обучающие выборки.
В разделе про LLM содержится важное замечание: Recently, LLMs have shown their ability in learning universal language representations, text understanding and generation. В итоге в конкретном исследуемом случае оказывается, что Leveraging semantic textual similarity, new materials with similar properties can be identified without human labeling or supervision.
Познавательно выглядит сравнение уже давно использовавшихся пайплайнов открытия новых материалов с использованием методов обработки естественного языка и новых возможностей, появившихся благодаря LLM. Описано, как и почему необходим файнтюнинг готовых моделей.
Речь и здесь уже идет о создании автономных агентов, способных целиком самостоятельно планировать и проводить исследования, причем — снова как люди — эти агенты по ходу дела обучаются и самосовершентвуются: In-context learning allows an AI agent to accumulate experience and evolve so that its actions become increasingly consistent, logical, and effective over time.
При внимательном чтении статья позволяет заглянуть в будущее научных исследований и понять логику, по которой это будущее создается. А еще — почувствовать объем нерешенных проблем, гарантирующих, что в обозримом будущем тем людям, кто создает автономный пайплайн научных открытий, безработица не грозит:)
А для особо любознательных открывается, насколько же наивна, безосновательна и слаба критика ИИ в научных исследованиях со стороны якобы экспертов. Им следует поизучать матчасть. Можно с этой статьи и начать.
https://www.nature.com/articles/s41524-025-01554-0
В начальных разделах статьи указывается, что технологии обработки естественного языка, позволили, наконец, содержательно обрабатывать весь массив когда-либо опубликованных работ по теме, извлекая из них данные, которые формируют большие обучающие выборки.
В разделе про LLM содержится важное замечание: Recently, LLMs have shown their ability in learning universal language representations, text understanding and generation. В итоге в конкретном исследуемом случае оказывается, что Leveraging semantic textual similarity, new materials with similar properties can be identified without human labeling or supervision.
Познавательно выглядит сравнение уже давно использовавшихся пайплайнов открытия новых материалов с использованием методов обработки естественного языка и новых возможностей, появившихся благодаря LLM. Описано, как и почему необходим файнтюнинг готовых моделей.
Речь и здесь уже идет о создании автономных агентов, способных целиком самостоятельно планировать и проводить исследования, причем — снова как люди — эти агенты по ходу дела обучаются и самосовершентвуются: In-context learning allows an AI agent to accumulate experience and evolve so that its actions become increasingly consistent, logical, and effective over time.
При внимательном чтении статья позволяет заглянуть в будущее научных исследований и понять логику, по которой это будущее создается. А еще — почувствовать объем нерешенных проблем, гарантирующих, что в обозримом будущем тем людям, кто создает автономный пайплайн научных открытий, безработица не грозит:)
А для особо любознательных открывается, насколько же наивна, безосновательна и слаба критика ИИ в научных исследованиях со стороны якобы экспертов. Им следует поизучать матчасть. Можно с этой статьи и начать.
https://www.nature.com/articles/s41524-025-01554-0
Nature
Applications of natural language processing and large language models in materials discovery
npj Computational Materials - Applications of natural language processing and large language models in materials discovery
Forwarded from Адель и МЛь
У AI лаб наверняка есть сговор - иначе почему они релизятся в один и тот же день?
За сегодня у нас было вот что:
- Deepseek V3 обновился, обходя на бенчмарках все неризонинг модели, включая GPT-4.5. При этом инпут дешевле в 107 раз, а аутпут в 214 🫠 И это open source.
- Gemini 2.5 pro с ноги выходит почти везде на первое место. При этом она ризонинг, мультимодальная, с окном в миллион токенов, набирает 18% на Humanity’s Last Exam.
- OpenAI наконец добавили нормальные генерацию и редактирование изображений в gpt-4o. Есть фотореализм, нормальные тексты на картинках, и можно генерить видео прямо из чата.
Урожайный день выдался.
За сегодня у нас было вот что:
- Deepseek V3 обновился, обходя на бенчмарках все неризонинг модели, включая GPT-4.5. При этом инпут дешевле в 107 раз, а аутпут в 214 🫠 И это open source.
- Gemini 2.5 pro с ноги выходит почти везде на первое место. При этом она ризонинг, мультимодальная, с окном в миллион токенов, набирает 18% на Humanity’s Last Exam.
- OpenAI наконец добавили нормальные генерацию и редактирование изображений в gpt-4o. Есть фотореализм, нормальные тексты на картинках, и можно генерить видео прямо из чата.
Урожайный день выдался.
нарисуй мне добрый домик
-> теперь дорисуй на дорожку золотистого ретривера
-> и добавь туда мою жену Вику (она очень красивая и красиво одевается), пусть она выглядывает из окна
AI для Всех
Тут забавно оказалось – если в нейронку которая генерирует картинку из текстового запроса, в конце запроса дописать «unreal engine», то качество генерации сильно повысится 🌝 то есть буквально, ссылаясь в тексте на что-то у чего обычно офигенная графика, можно…
Насмотревшись на то, как интернет вновь заполонила студия Ghibli, решил попробовать приемчики из того же арсенала.
Кажется мы прошли полный круг и старые трюки снова работают. Если дописать к промту в ChatGPT
Угадайте какая из картинок:
Кажется мы прошли полный круг и старые трюки снова работают. Если дописать к промту в ChatGPT
unreal engine, artstudio
- то картинки становятся симпатичнее. Прям как в старые добрые времена. Угадайте какая из картинок:
draw water angel
, а какая draw water angel, unreal engine, artstudio
?