Подробный блог-пост о том, как на самом деле работает внутренняя часть PyTorch.
📌 Читать
📌Видео объяснения базы по тензорам
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Все мы любим scikit-learn за его простоту и мощь. Но что если ваши модели обучаются слишком долго на больших данных? 🤔 NVIDIA предлагает решение!
Вы берете свой обычный скрипт cо scikit-learn, добавляете всего две строки в начало, и он начинает работать в 10, 50, а то и 100+ раз быстрее на NVIDIA GPU!
✨ Как это работает?
Библиотека cuml от NVIDIA содержит супероптимизированные для GPU версии многих алгоритмов машинного обучения. С помощью простого вызова
cuml.patch.apply()
вы "патчите" установленный у вас scikit-learn прямо в памяти.Теперь, когда вы вызываете, например,
KNeighborsClassifier
или PCA
из sklearn:Ключевые преимущества:
2 строчки:import cuml.patch и cuml.patch.apply().
Топ инструмент для всех, кто работает с scikit-learn на задачах, требующих значительных вычислений, и у кого есть GPU от NVIDIA.
👇 Как использовать:
Установите RAPIDS cuml (лучше через conda, см. сайт RAPIDS):
python
conda install -c rapidsai -c conda-forge -c nvidia cuml rapids-build-backend
Добавьте в начало скрипта:
import cuml.patch
cuml.patch.apply()
Используйте scikit-learn как обычно!
Попробуйте и почувствуйте разницу! 😉
▪Блог-пост
▪Colab
▪Github
▪Ускоряем Pandas
@ai_machinelearning_big_data
#python #datascience #machinelearning #scikitlearn #rapids #cuml #gpu #nvidia #ускорение #машинноеобучение #анализданных
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI запустила "Академию OpenAI", которая претендует на роль главного учебника по ИИ. Платформа поможет освоить нейросети, понять их возможности и научиться эффективно использовать ChatGPT и Sora в повседневной жизни и работе.
▪ Обширная база обучающих материалов доступна на отдельном сайте.
▪ Живые трансляции и офлайн-мероприятия помогут глубже разобраться в технологиях.
▪ Бесплатный доступ — OpenAI стремится расширить аудиторию, а не ограничивать её ценником.
📌Начать обучение
📌 Блог
Please open Telegram to view this post
VIEW IN TELEGRAM
Это квинтэссенция примеров кода и паттернов, охватывающая 99% возможных вопросов на собеседовании.
Шпаргалка объемная, время чтения - 96 минут.
На русском языке.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
python_interview_questions/questions.md at master · yakimka/python_interview_questions
Вопросы для подготовки к интервью на позицию Python Developer - yakimka/python_interview_questions
🔥 Пошаговый гайд создания системы автоматического распознавания речи с помощью PyTorch и Hugging Face
С эти гайдом вы сможете:
- Загружать и обрабатывать речь данные
- Настраивать предварительно обученную модель Wav2Vec2
- Оценивать производительность модели с помощью коэффициента ошибок слов (WER)
- Развертывать модель для перевода речи в текст в режиме реального времени
🔗 Читать
С эти гайдом вы сможете:
- Загружать и обрабатывать речь данные
- Настраивать предварительно обученную модель Wav2Vec2
- Оценивать производительность модели с помощью коэффициента ошибок слов (WER)
- Развертывать модель для перевода речи в текст в режиме реального времени
🔗 Читать
1) Andrej Karpathy — сочетание общего и технического контента, плейлист "Zero to Hero" обязателен к просмотру
2) Uproger — доступные уроки по программированию и ИИ, идеально для начинающих и тех, кто хочет углубить свои знания.
3) Umar Jamil — технический блог, где автор реализует методы ML и LLM с нуля
4) Simon Oz — технические видео по низкоуровневому машинному обучению
5) Tunadorable — отличные обзоры научных статей, реализация
6) GPU Mode — технические интервью и разборы всего, что связано с GPU
7) AI Jason — эксперименты с ИИ, дизайн ПО и новые модели, с понятным и полным разбором.
8) Ferdinand Mom — всё о распределённом обучении и выводах
9) Welch Labs — уникальный глубокий взгляд на комплексность алгоритмов машинного обучения.
10) Artem Kirsanov — нейронаука и машинное обучение с необычного авторского взгляда + отличная визуализация контента.
11) David Ondrej — новые модели, создание приложений с ИИ, практично для разработчиков https://t.co/BEOr0MgHag @DavidOndrej1
12) 3Blue1Brown
Потрясающие визуализации, которые делают абстрактные математические концепции понятными и интуитивными.
13) Lex Fridman
Глубокие беседы с лидерами индустрии ИИ, позволяющие получить широкий взгляд на современные тенденции.
14) Machine Learning Street Talk
Технические погружения и обсуждения с ведущими исследователями в области ИИ и машинного обучения.
Ссылка:
15) StatQuest with Joshua Starmer PhD
Доступные и понятные объяснения основ машинного обучения и статистики для начинающих.
Этот список для технической аудитории. Очень сложно выбрать всего 15 каналов, ведь есть множество других, создающих отличный контент.
Если знаете ещё каналы, дайте пишите в комментариях!
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
С каждым днем все больше бизнесов выходят на маркетплейсы, а значит еще более ценными становятся аналитики, которые умеют с ними работать. Хотите научиться использовать Python для анализа продаж и создания эффективных стратегий?
Андрон Алексанян - CEO Simulative в прямом эфире проанализирует продажи на маркетплейсах с помощью Python. Никаких первоапрельских розыгрышей, только полезные знания! 🧡
Что будем делать:
🕗 Встречаемся 01 апреля 18:30 по МСК
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Проект llama-3.2-from-scratch, созданный пользователем rasbt (Себастьян Рашка), представляет собой реализацию модели Llama 3.2 на языке PyTorch с нуля.
Цель проекта — предоставить понятный и минималистичный код для изучения и исследования архитектуры больших языковых моделей (LLM).
Основные особенности проекта:
- Простота и доступность кода: Реализация оптимизирована для читаемости, что делает её подходящей для образовательных целей и исследований.
- Минимальные зависимости: Для работы требуются только библиотеки torch, tiktoken и blobfile, что упрощает установку и использование.
- Предоставление предобученных весов: В репозитории доступны веса моделей, конвертированные из официальных весов, предоставленных компанией Meta. Это позволяет пользователям сразу приступить к экспериментам без необходимости обучать модели с нуля.
- Гибкость в выборе моделей: Поддерживаются различные версии моделей Llama 3.2, включая базовые и инструкционные варианты с 1 и 3 миллиардами параметров.
- Примеры использования: Включены примеры кода для загрузки моделей, настройки токенизатора и генерации текста, что облегчает начало работы с проектом.
Важно отметить, что предоставленные веса моделей были конвертированы из официальных весов Meta. Для получения оригинальных весов и информации о лицензии рекомендуется обратиться к официальным репозиториям Meta на Hugging Face.
В целом, llama-3.2-from-scratch — это ценный ресурс для разработчиков и исследователей, желающих глубже понять внутреннее устройство современных языковых моделей и экспериментировать с их архитектурой.
https://huggingface.co/rasbt/llama-3.2-from-scratch
@machinelearning_interview
Цель проекта — предоставить понятный и минималистичный код для изучения и исследования архитектуры больших языковых моделей (LLM).
Основные особенности проекта:
- Простота и доступность кода: Реализация оптимизирована для читаемости, что делает её подходящей для образовательных целей и исследований.
- Минимальные зависимости: Для работы требуются только библиотеки torch, tiktoken и blobfile, что упрощает установку и использование.
- Предоставление предобученных весов: В репозитории доступны веса моделей, конвертированные из официальных весов, предоставленных компанией Meta. Это позволяет пользователям сразу приступить к экспериментам без необходимости обучать модели с нуля.
- Гибкость в выборе моделей: Поддерживаются различные версии моделей Llama 3.2, включая базовые и инструкционные варианты с 1 и 3 миллиардами параметров.
- Примеры использования: Включены примеры кода для загрузки моделей, настройки токенизатора и генерации текста, что облегчает начало работы с проектом.
Важно отметить, что предоставленные веса моделей были конвертированы из официальных весов Meta. Для получения оригинальных весов и информации о лицензии рекомендуется обратиться к официальным репозиториям Meta на Hugging Face.
В целом, llama-3.2-from-scratch — это ценный ресурс для разработчиков и исследователей, желающих глубже понять внутреннее устройство современных языковых моделей и экспериментировать с их архитектурой.
https://huggingface.co/rasbt/llama-3.2-from-scratch
@machinelearning_interview
Forwarded from Machinelearning
Китайский медиапортал Sina.com.cn сообщил, что в его распоряжении есть информация, указывающая на то, что Alibaba Group планирует выпуск новой модели Qwen3 следующей неделе (7- 11 апреля). По словам экспертов медиаресурса Huxiu.com , это будет самый важный модельный продукт Alibaba в первой половине 2025 года, после выпуска DeepSeek-R1 команда Alibaba Cloud Basic Model Team еще больше сместила вектор разработки в сторону способности модели к рассуждениям.
Sina Technology обратилась за подтверждением к Alibaba Cloud, но на момент публикации официального ответа не последовало.
sina.com.cn
Microsoft свернула работу своей лаборатории IoT и ИИ в технологическом кластере Чжанцзян (Шанхай), следуя стратегии сокращения присутствия в Китае. Объект, открытый в 2019 году для поддержки местных стартапов уже опустел: логотип демонтирован, оборудование вывезено. За 5 лет лаборатория помогла реализовать 258 проектов, привлекла 9,4 млрд юаней инвестиций и обучила около 10 тыс. специалистов.
Решение закрыть центр стало частью плана ухода Microsoft с китайского рынка. В 2023 году компания предложила сотрудникам, работающим над ИИ, переехать за рубеж, а также закрыла все розничные магазины в стране. По словам президента Microsoft Брэда Смита, на Китай приходится всего 1,5% глобальной выручки.
scmp.com
Жоэль Пино, вице-президент по исследованиям в области ИИ компании Марка Цукерберга и глава группы FAIR, объявила о своих планах покинуть компанию в мае после почти 8 лет работы. Пино возглавляла FAIR с начала 2023 года и курировала разработку моделей Llama.
Ожидается, что уход Пино приведет к появлению вакансии высокого уровня в подразделении ИИ компании, но непосредственный преемник пока не назван.
wsj.com
Тесты топовых LLM, проведенные matharena.ai на сложных задачах математической олимпиады США (USAMO-2025) показали печальные результаты. Модели решали 6 доказательных задач — каждая оценивалась в 7 баллов, высший балл - 42. Лидеры теста (DeepSeek-R1 и Gemini-2.0-flash-thinking) набрали меньше 5%, что ставит под сомнение их способность к глубокому математическому анализу.
Несмотря на провал, часть специалистов уверена — прогресс LLM в математике всё же есть, и он не сводится к «загрязнению» данных. Исследование, в рамка которого проводилось тестирование - «Proof or Bluff? Evaluating LLMs on 2025 USA Math Olympiad» подытоживает: LLM, даже лучшим, пока далеко до уровня человека в соревновательных дисциплинах.
matharena.ai
OpenAI добавила новую голосовую опцию для ChatGPT под кодовым названием "Shade". Этот голос, описанный как "Поговори с понедельником", имеет характерную визуализацию "угрюмого черного" в расширенном голосовом режиме.
Новая опция доступна в приложении для iOS, и пользователи отмечают его уникальное звучание и эстетику "тяжелого понедельника".
OpenAI в X (ex-Twitter)
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🕊️ Hummingbird — инструмент от Microsoft, позволяющий преобразовывать классические ML алгоритмы в тензорные вычисления.
📝 Как это работает?
— Суть в том, что вместо привычного последовательного выполнения условий в деревьях Hummingbird использует матричные операции, что открывает доступ к GPU-ускорению и оптимизациям нейросетевых движков. При этом API остаётся знакомым любому, кто работал с scikit-learn — можно просто подменить модель без переписывания кода инференса.
Пока проект поддерживает не все алгоритмы, но уже охватывает ключевые сценарии ⚙️
🤖 GitHub
@machinelearning_interview
📝 Как это работает?
— Суть в том, что вместо привычного последовательного выполнения условий в деревьях Hummingbird использует матричные операции, что открывает доступ к GPU-ускорению и оптимизациям нейросетевых движков. При этом API остаётся знакомым любому, кто работал с scikit-learn — можно просто подменить модель без переписывания кода инференса.
Пока проект поддерживает не все алгоритмы, но уже охватывает ключевые сценарии ⚙️
🤖 GitHub
@machinelearning_interview
🦾 Курс искусственный интеллект (ML) в медицине
Научитесь создавать качественные мультимодальные медицинские датасеты и осуществлять техническую поддержку разметки данных
Ориентирйтесь в зоопарке современных подходов к машинному обучению и умейте анализировать результаты машинного обучения
✅ Выпускной проект: Разработка и внедрение модели от появления данных и размеченных датасетов до машинного обучения, анализа результатов и выбора моделей.
👇 Проверить свой уровень и пройти тест на курс:
https://otus.pw/eSBA/?erid=2W5zFJho1HJ
#реклама
О рекламодателе
Научитесь создавать качественные мультимодальные медицинские датасеты и осуществлять техническую поддержку разметки данных
Ориентирйтесь в зоопарке современных подходов к машинному обучению и умейте анализировать результаты машинного обучения
✅ Выпускной проект: Разработка и внедрение модели от появления данных и размеченных датасетов до машинного обучения, анализа результатов и выбора моделей.
👇 Проверить свой уровень и пройти тест на курс:
https://otus.pw/eSBA/?erid=2W5zFJho1HJ
#реклама
О рекламодателе
📚 Prompt-in-context-learning — это открытый проект от EgoAlpha Lab, собирающий актуальные методики работы с LLM, превращая разрозненные знания в структурированную систему. Здесь вы найдете множество интересных проверенных техник— от базовых промтов до продвинутых стратегий in-context learning.
📌 Репозиторий включает не только теоретические работы по prompt engineering, но и готовые примеры для ежедневных задач: от генерации кода до анализа данных. Материалы обновляются ежедневно, включая свежие исследования и кейсы из реальных проектов.
🤖 GitHub
@machinelearning_interview
📌 Репозиторий включает не только теоретические работы по prompt engineering, но и готовые примеры для ежедневных задач: от генерации кода до анализа данных. Материалы обновляются ежедневно, включая свежие исследования и кейсы из реальных проектов.
🤖 GitHub
@machinelearning_interview