Telegram Group Search
Новый набор в ШАД

❗️Cейчас вовсю идет новый набор в Школу Анализа Данных Яндекса. ШАД был открыт аж в далеком 2007 году и стал первопроходцем образовательных программ по Computer Science и Data Science от коммерческих компаний.

В первые 5-7 лет в других компаниях ШАД был мемом. Любые образовательные инициативы корпоративные менеджеры часто комментировали «ну мы тут не будем жечь деньги в топке как Яндекс со своим ШАДом, мы же не благотворительная организация». Почему так? А очень просто: стоимость одного нанятого выпускника с учетом всех расходов на ШАД составляла более 1 миллиона рублей (я в Яндексе не работаю, поэтому могу смело называть числа, которые слышал). Согласитесь, за эту круглую сумму даже сейчас любой рекрутер загоняет джуна в поле, не то что в компанию наймет :)

Недальновидные корпоративные менеджеры ожидаемо крутили пальцем у виска, глядя на ШАД. А многие крутят до сих пор, если видят похожую экономику на старте своих проектов и закрывают их как только эйчар оказывается дешевле. Но ШАД тем временем создал репутацию, создал свою среду и тусовку очень умных людей (как студентов, так и преподавателей), стал поставлять Яндексу не только более крутые кадры, чем были на рынке, но и мега лояльных людей, для которых Яндекс стал семьей. Инвестиции кратно себя оправдали, сформировав сотни, если не тысячи сотрудников, которые не уходят из офиса ни в 18, ни в 20, не переходят на зарплаты втрое больше в другие компании, и больше всего ценят работу с умными людьми над интересной задачей. И это честный win-win: выиграла не только компания, но и люди, которые реально получают удовольствие от работы каждый день.

💪 Учиться в ШАДе очень сложно. Совмещать с работой или с семьей еще сложнее. А и с тем и с другим почти невозможно. Но если вы не боитесь трудностей, попробуйте поступить: https://shad.yandex.ru/special_graduates

🥇 Выпускник ШАД - это очень уважаемая в отрасли «лычка», но, конечно, еще более уважают за те знания, которые вы там получите. Смысл попробовать есть, но будьте готовы, что может потребоваться 3, 4, или даже 7 попыток, чтобы преуспеть. Свет клином на ШАДе конечно не сошелся: это не must, это точно нечто «сверх» того, что нужно Data Scientist’у, аналитику или разработчику. Но место хорошее, а для тех, кто любит по-жестче - лучшее :) Так что тем, кто будет поступать, желаю удачи, несгибаемости, и помнить, что все самое интересное впереди! 🤝❤️
Митап ML-комьюнити

MLечный путь – ежегодный митап от Selectel для всех, кто делает ML. В этот раз делают фокус на практике и живом общении.

📍 23 апреля, 18:00, в офисе Selectel в Санкт-Петербурге и онлайн

Разберут реальные кейсы:
- инференс в рентген-вагоне,
- развертывание Edge-AI для комбайнов,
- использование Shared- и MultiGPU Inference.

Из новых форматов – ML Startup Pitch, где вы сможете дать фидбек по чужим проектам и получить идеи для улучшения своих.

Смотрите программу и регистрируйтесь по ссылке: https://slc.tl/fqyeh

Реклама. АО «Селектел», ИНН 7810962785, ERID: 2Vtzqxhy1UE
Правда ли неплохих кандидатов отфильтровывают HRы?

Есть куча баек про то, как тимлид, недовольный отсутствием кандидатов на вакансию, идет в эйчар, сам берет несколько резюме и нанимает себе человека за неделю. А на вопросы в духе "почему вот этому отказали?" получает фантастические ответы в духе "у него ведь непрофильное образование" и другие гениальные реплики.

У меня заканчивает обучение первый поток Базы ML в MLinside, и я предлагаю как раз проверить эти байки про HR. План следующий: показываем несколько резюме тимлиду DS, если какие-то из них ему нравятся и хочется пообщаться, то не сразу ставим собеседование, а сначала на общих основаниях подаем резюме через отклик на вакансию. Если через две недели ничего не происходит, явно просим организовать собеседование с конкретным кандидатом. А тимлид получает отличную возможность поспрашивать HR, почему кандидат до него не дошел с первой попытки :)

Кто хочет поучаствовать в эксперименте в роли тимлида DS (и уже им работает😁) - пишите мне в личку: @vkantor

На всякий случай уточню: разумеется, после "Базы ML" мои студенты претендуют в основном на джунские позиции.
This media is not supported in your browser
VIEW IN TELEGRAM
🔥Яндекс-браузер теперь переводит иностранные ролики так, что голос звучит почти как у оригинального автора — тембр и интонации сохраняются!

Без преувеличения, это та фича, которой я очень ждал :) Идея простая: положить конец «робопереводчикам», которые рушат атмосферу видео. Фокус апдейта — в генеративной модели, которая умеет делать «отпечаток» голоса спикера, а потом озвучить текст на другом языке тем же тембром.

Коллеги из Яндекса очень хорошо позаботились о скорости: перевод и озвучка происходят почти без задержки, так что смотреть можно сразу, не дожидаясь обработки. Собственно оптимизация и встраивание прямо в браузер и есть главная фишка: так-то уже давно мы видим примеры, когда заранее известное видео кастомно переводят, сохраняя голос и интонацию, а вот поставить все на поток и заставить работать на лету - это правда круто ❤️

Ценность фичи очевидна: любимый контент на YouTube или других платформах с ней звучит по-русски, но с привычной подачей автора. Это снижает порог для тех, кому сложно воспринимать лекции или интервью на английском на слух, и открывает дорогу к гораздо более «живым» локализациям подкастов и онлайн-курсов.

Как попробовать:
обновите Яндекс-браузер до свежей версии, включите «Перевод видео» в меню плеера и выберите русский звук. На роликах с поддерживаемыми языками вы услышите новую озвучку. Сравните с оригиналом — напишите в комментах, насколько похоже получилось, и где ещё нужен по-вашему такой voice-cloning-перевод :)
Please open Telegram to view this post
VIEW IN TELEGRAM
Чем хуже тем лучше

Заметил интересную особенность своего тайм-менеджмента: если я мало успеваю, наиболее действенное решение - навалить дел еще побольше. Мозг удивительно изворотлив в том, чтобы находить отмазы, оправдания и вообще всячески лениться. В ситуации, когда некогда страдать фигней, мысли волшебным образом начинают идти в нужном направлении.

Отчасти за прокрастинацией стоит интуитивное понимание неоптимальности происходящего: вот я пытаюсь заставить себя сделать слайды к лекции за два часа и записать лекцию еще за час, а в глубине души понимаю, что что-то не так. И выясняю, что именно: нужно 10-20 часов потратить на подготовку, вспоминание всего, что хочется рассказать, структурирование и продумывание изложения, а потом еще 6 часов на слайды, и только потом записывать. Потому и не хотелось делать быстро и в рамках существующих слотов в расписании. Плохо ли, что есть это сопротивление мозга в такой задаче? Плохо ли, что не всегда получается делать "методом прогрессивного джипега"? Да, в общем-то, мне нормально, я так-то удовольствие должен получать от своей работы, а не быстрее-быстрее в сроки запихать. Да и люди в конце-концов тоже не дураки, видят разницу между нормально подготовленным контентом и халтурой.

Но вот другой пример: грустил я, тосковал, что протерял где-то свою прежнюю производительность труда, чувствую какую-то постоянную усталость, делать ничего не хочу, вот дайте мне одеяло и подушку часов на 12 в сутки, а еще на 8 кресло и камин. И кота наглаживать. Оставшиеся 4 часа я, так и быть, готов есть и общаться с какими-то людьми. Так-то если на недельку-другую, то дело благородное: отчего ж не поваляться. Но вот что-то затягивалось это все, и даже витамин D не помогал :)

И так я голову ломал и эдак, пока однажды проснувшись утром не начал прям не вставая с кровати работать. Взял ноут и занялся тем, что мне интересно и полезно для нашей школы ML. И такого запредельного буста бодрости у меня давно не было. Смотрели "Области тьмы"? Вот, честное слово, работа - чистый NZT. Только вот работа работе рознь. По встречам ходить языком трепаться дело хорошее, важное, но сколько вот эти встречи длятся? Ну час, ну два, ну по верхам потрепались и разбежались. А когда делаю что-то часов на 6-8 увлеченной работы - вот уж точно кайф. Тут вам и пресловутое состояние потока и незаметное течение времени при минимальных отвлечениях.

И так кстати со многими вещами, которые много раз начинал и не особо продвигались. Вот, например, я еще со школьных лет очень много людей подсадил на разные тайм-менеджерские техники. Но внедрить в свою повседневную жизнь какой-нибудь GTD или хотя б по Архангельскому Глебу планировать - фиг там. Зато как только я начинаю упорото вести хронометраж - вот тут прям сразу все становится чётко. Ну просит душа хардкора, а не эти ваши лавандовые рафы продуктивности без стресса.

С чем эти причуды моей психики связаны - с Физтеховским ПТСР ли, или еще с какой дурью в голове - кто его знает. Но общие наблюдения такие:

1) Если тяжело даются простые задачки - возьмись за задачки со звездочками, возможно ты не "не готов", а не заинтересован, вот и весь секрет.
2) Очень неплохое лекарство от приунывания - работа в удовольствие с глубоким погружением. Засада лишь в том, что аппетит приходит во время еды. Бывает будешь месяц избегать что-то сделать, а потом узнаешь, что именно это дело тебе и было самым классными и интересным. В общем, не нужно бояться: иногда то, что мы боимся делать, и есть то, чего мы действительно хотим.
У меня эта картинка внезапно ассоциируется с обучением с помощью ChatGPT и ему подобных нейросетевых сервисов. Самый крутой кейс использования в моей практике: супер-быстрое обучение без боязни чувствовать себя неловко. И особенно эффективно - вспоминание уже забытого :)

Но основной смысл картинки конечно тоже очень правильный. Открытость, непосредственность и отсутствие ужаса перед ошибками и глупыми вопросами фантастически бустит конструктивность вашей деятельности, не только обучения.
Forwarded from Midov trip
Взял из поста президента Шопифая в линкедине
Kantor.AI
Вопрос на засыпку: почему L1 регуляризация разреживает? Нет, я серьезно. На собеседованиях все любят спрашивать, а так, чтобы интервьюер мог показать это сам - большая редкость. Ромбики и кружочки рисовать или рассказывать про то, что производная +-1 быстрее…
Why_L1_makes_sparse.pdf
251 KB
Подвел итог в виде PDF с тремя достаточно строгими доказательствами :) Кто любит математику и кому интересно, как же аккуратно показать разреживающее свойство L1 регуляризатора - см. PDF в аттаче
Kantor.AI
Why_L1_makes_sparse.pdf
К вопросу о том, нужна ли математика, чтобы заниматься машинным обучением. Этот пример очень хорошо иллюстрирует ситуацию: если вы хотите понимать, почему все работает так, как работает - нужна. Если вы хотите использовать как черный ящик - достаточно очень базовых понятий. И я не топлю ни за один, ни за другой вариант: есть тысячи людей по всему миру, которые успешно обучают ML-модели, не владея математическим аппаратом достаточным для понимания pdf из поста выше, отлично себя чувствуют, и модели их ничуть не хуже. А есть тысячи людей по всему миру, которые назовут математику из этой же pdf детской и тривиальной, т.к. способны работать и с более сложным математическим аппаратом (который тоже можно использовать в ML, например вот: https://arxiv.org/abs/2201.09656)
Учитесь в универе и хотите узнать больше про NLP? Регистрируйтесь на бесплатный NLP-студкемп от Яндекс Образования и НГУ! Интенсив пройдет с 14 по 26 июля в Новосибирске, дорогу и проживание оплачивает организатор.

Обработка естественного языка с помощью ИИ все больше входит в нашу жизнь, но как быстро погрузиться в то, что работает под капотом? За две недели — с 14 по 26 июля — вы разложите современный NLP по полочкам — от теории до практики:
💡 поработаете с бенчмарками и обучающими датасетами;
💡 узнаете, как работают методы Deep Learning в NLP — от механизма внимания и трансформеров до мультимодальных LLM и RAG;
💡 сравните модели YandexGPT и Qwen;
💡 создадите свой проект на стыке науки и бизнеса.

Всё это — бесплатно и под руководством экспертов из Яндекса и НГУ. С вас — только желание развиваться и пройти отбор.

Заявку нужно оставить до 18 мая. Регистрируйтесь прямо сейчас и проведите лето с пользой!
О том, как и зачем переходят из DS в продакты, и чем знание ML помогает в этой работе
Forwarded from MLinside - школа ML
This media is not supported in your browser
VIEW IN TELEGRAM
▶️ На нашем YouTube-канале вышло интервью с Константином Чукреевым — Growth Product Lead в Manychat, ранее работал в Яндекс Лавке, где за короткий срок прошел путь от ML-разработчика до продакт менеджера уровня Middle+.

Константин рассказывает:
▪️ Как он переходил из аналитики и ML в продакт-менеджмент.
▪️ Какие задачи решал в Яндексе и Manychat.
▪️ Какие навыки нужны продактам и ML-специалистам для развития.
▪️Советы молодым специалистам по Data Science и ML
▪️ Будущее чатботов с ИИ и перспективы AI через 5–10 лет.
▪️ Как делать карьерный переход и кому стоит идти в продакт-менеджмент

🎯 Интервью для тех, кто хочет развиваться на стыке ML, аналитики и продукта.

🔥Спойлер: если вы хотите курс от MLinside и Константина специально для продакт-менеджеров — обязательно посмотрите это интервью!

👉 Смотреть здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
В Data Science все начинается с Титаника 🚢

Вручил главному любителю профессионалу лего в data тусовке символичный подарок. К слову, угадайте с кем будет следующее интервью на канале MLinside? ;)
Отчет Stanford HAI о развитии рынка AI

Какие-то подозрительные числа по топам стран. Ну и аналитика в духе «у вас тут машинлернинг или gen ai» грубовато звучит. Возможно это объясняет объем отчета (456 страниц): все равно никто не изучит его полностью.

Впрочем, это конечно все равно довольно поверхностные претензии, чтобы дать нормальную оценку надо вооружаться LLMками и «читать», попутно тренируясь отличать ответ по делу от галлюцинации.
​​🔥🔥🔥 Отчет по рынку AI на 456 страниц от Stanford!

Да, огромный отчет, просто качайте его из сообщения ниже и читайте.

Никаких саммари привести просто невозможно, там 8 глав про technical performance, R&D, responsible AI, economy, science, policy, education and public opinion. Читайте интересные вам.

На что хочется обратить ваше внимание?

1/ 44.48% научных публикаций по AI в 2024 году было сделано исследователями из Азии (это отдельно East Asia и South Asia) и только 10.31% из Северной Америки. 🇨🇳 Китай против 🇺🇸 США в основном. 🇪🇺 Европа, кстати, выше США с 18.15%.

2/ Из всех публикаций только ~5.4% касаются Generative AI. В лидерах Machine Learning с ~75.7%.

3/ По количеству патентов на душу населения 🇺🇸 США и 🇨🇳 Китай идут очень близко и с 5.20 патентов и 6.08 занимают 4 и 3 место, соответственно. На первом месте 🇰🇷 Южная Корея с 17.27, далее 🇱🇺 Люксембург с 15.31.

4/ Однако по количеству заметных AI моделей 🇺🇸 США сильно впереди 🇨🇳 Китая – 40 против 15. Забавно, что моделей все же не так много, потому что на 3-м месте и далее страны с 1-й моделью (у 🇮🇱 Израиля, например, столько же, сколько у 🇸🇦 Саудовской Аравии).

5/ На Github 4.32М опенсорсных AI проектов.

6/ AI Agents пока еще не очень точные – самая топовая модель GPT-4o имеет success rate всего 36.2%.

7/ Всего в 2024 году зафиксировано 233 крупных инцидента с AI (типа как когда система определения лица определило неверного человека и его арестовали, или автономное авто совершило аварию).

8/ От 1.25% всех вакансий в 🇳🇱 Нидерландах до 3.27% всех вакансий в 🇸🇬 Сингапуре требуют AI skills.

9/ Где больше всего талантов в области AI?
Топ 3:
🇮🇱 Израиль 1.98%
🇸🇬 Сингапур: 1.64%
🇱🇺 Люксембург: 1.44%

Топ-3 страны по миграции AI талантов на 10,000 Linkedin members:
🇱🇺 Люксембург: 8.92%
🇨🇾 Кипр: 4.67%
🇦🇪 ОАЭ: 4.13%

10/ Всего в 2024 году появилось более 2,000 AI компаний, которые еще и привлекли венчурное финансирование.

Это только капля в море. Читайте отчет, данных куча.

@proVenture

#ai #research
2025/06/14 10:26:04
Back to Top
HTML Embed Code: