Telegram Group & Telegram Channel
Школа имени Б.Т.Поляка.
Очень классное мероприятие. Я в целом доволен поездкой.
Жаль, что не все интересные мне доклады удалось посетить, но работа не волк, работа это ворк)
Было много классных лекций, наиболее мне понравились следующие:
1. Иван Оселедец рассказывал про оптимизацию с помощью моделей, это можно сказать «имитационное моделирование» поведения оптимизаторов, один из новых подходов для решения задач дискретной оптимизации с помощью ML.
2. Александр Тюрин, распределенная оптимизация. Часть доклада я уже хорошо знал с ICOMP и рассказа Питера Рихтарика, но было глубокое погружение в детали. Теперь я представляю как строятся нижние оценки для оптимизационных методов (до этого лишь в общих чертах).
3. Владимир Спокойный, байесовская статистика для объяснения хорошей генерализации нейронных сетей, увы не пришел, но презентацию посмотрел и пообщался с лектором.
4. Дмитрий Яроцкий, относительно базовый (для тех, кто в целом знаком с итеративными матричными методами) доклад про билинейные задачи, очень приятный)
5. Алексей Наумов, бутстрэп-методы для градиентного спуска. Тоже не был, по презентации выглядит интересно, но надо разботать.
Еще были тусовки почти каждый день с людьми из оптимизации, более крутыми, чем я, дает мотивацию на Сириус.
Единственный минус - кровати. Очень дискомфортно было на них спать, в следующий раз возьму свою ортопедическую подушку.
Все презентации есть на сайте: https://ssopt.org



tg-me.com/BDataScienceM/2948
Create:
Last Update:

Школа имени Б.Т.Поляка.
Очень классное мероприятие. Я в целом доволен поездкой.
Жаль, что не все интересные мне доклады удалось посетить, но работа не волк, работа это ворк)
Было много классных лекций, наиболее мне понравились следующие:
1. Иван Оселедец рассказывал про оптимизацию с помощью моделей, это можно сказать «имитационное моделирование» поведения оптимизаторов, один из новых подходов для решения задач дискретной оптимизации с помощью ML.
2. Александр Тюрин, распределенная оптимизация. Часть доклада я уже хорошо знал с ICOMP и рассказа Питера Рихтарика, но было глубокое погружение в детали. Теперь я представляю как строятся нижние оценки для оптимизационных методов (до этого лишь в общих чертах).
3. Владимир Спокойный, байесовская статистика для объяснения хорошей генерализации нейронных сетей, увы не пришел, но презентацию посмотрел и пообщался с лектором.
4. Дмитрий Яроцкий, относительно базовый (для тех, кто в целом знаком с итеративными матричными методами) доклад про билинейные задачи, очень приятный)
5. Алексей Наумов, бутстрэп-методы для градиентного спуска. Тоже не был, по презентации выглядит интересно, но надо разботать.
Еще были тусовки почти каждый день с людьми из оптимизации, более крутыми, чем я, дает мотивацию на Сириус.
Единственный минус - кровати. Очень дискомфортно было на них спать, в следующий раз возьму свою ортопедическую подушку.
Все презентации есть на сайте: https://ssopt.org

BY ML-легушька








Share with your friend now:
tg-me.com/BDataScienceM/2948

View MORE
Open in Telegram


ML легушька Telegram | DID YOU KNOW?

Date: |

A project of our size needs at least a few hundred million dollars per year to keep going,” Mr. Durov wrote in his public channel on Telegram late last year. “While doing that, we will remain independent and stay true to our values, redefining how a tech company should operate.

ML легушька from us


Telegram ML-легушька
FROM USA