Telegram Group & Telegram Channel
Forwarded from D_PEOPLE [Trofimov]
Вы просили про DeepSeek - ситуация вкрай запутана🤔

Полный обзор всего загадочного и странного в этой истории по порядку:

1️⃣Начнем с того, действительно ли DeepSeek R1 лучше ведущих закрытых моделей - нет..

Да, он хорош, но по бенчмаркам на уровне o1 от OpenAI без какого-то превосходства, да и по ощущениям (я пользую и ту и ту) на обычных жизненных задачах модели очень близки.

Но все равно успех DeepSeek удивителен, мы еще забываем про V3, которая ранее превзошла GPT4o и Claude 3.5⭐️⭐️⭐️

А еще DeepSeek лучше всех справилась с “последним экзаменом человечества" - тестом из 3 тыс. вопросов, большинство из которых составлялись учеными⚡️⚡️⚡️

Все модели🤖: Gemini от Google, Claude от Anthropic, Grok от xAI, 4o и o1 от OpenAI и DeepSeek R1, - этот тест провалили, не набрав и 10%, но..

R1 получила 9,4%, а o1 всего 9,1% при том, что R1 не работает с картинками и такие вопросы пропускала

2️⃣В чем же тогда поднявшийся ор?..
DeepSeek ворвалась в лидеры менее, чем за год, а еще ее модели открытые и бесплатные (говорят, халява на R1 до 8го февраля)💸

+ китайцы сделали хитрый ход, забрав полрынка разрабов — API DeepSeek’а на 100% совместимо с библиотеками OpenAI, т.е. для миграции нужно просто удалить платный API от OpenAI и вставить бесплатный от DeepSeek’а🤣🤣🤣

3️⃣Самое большое влияние на этот разгон в стратосферу оказала инфа о том, что обучение R1 в 20 раз дешевле..
Давайте разбираться..

Во-первых, есть мнение, что DeepSeek перенял наработки от Llama после ее мощного рывка в 2024м, когда она вынесла всех по бенчам и сделалась открытой..

Если это так, то тогда с какого момента считать стоимость обучения и что там в ядре на L0 (выложил в комменты уровни обучения моделей)?.. Если там Llama - тогда ясно, почему DeepSeek такая “дешевая”🗡

Во-вторых, мы не знаем как и для чего учили модель..
Учитывая, что превосходство R1 не особо ощущается, может ее и учили на бенчи с арены - у всех “производителей” моделей эта практика стала нормой👍

А еще DeepSeek финансируется китайским хедж-фондом High-Flyer💸, основанным Лян Вэньфэном, а что важно финансистам? Чтобы модель стоила поменьше, а эффект от нее был побольше.. А что значит побольше? Шаг к AGI? Нет, конечно.. Качнуть рынки?.. Возможно🤙

В-третьих, сразу за взлетом R1 всплыл факт😁

Альтман почувствовал неладное - его беза узнала, что связанные с DeepSeek лица выкачивали через API OpenAI данные, обходя ограничения😈 По сути o1 учила R1💳

..OpenAI и Microsoft инициировали расследование, но доказательств никаких нет🔥

Т.е кто-то в OpenAI слил что нужно в DeepSeek, а DeepSeek с самого начала была “заточена” на низложение OpenAI.. Забавное свидетельство в конце поста))))

4️⃣Вернемся к “качнуть рынки” - чем обусловлено крушение рынка и антирекорд NVIDIA: -12% и -400 млрд $ за сутки?..

Да ничем - чем выше хайп в ИИ, тем меньше новости и колебания рынка связаны с реальностью🥳

Рынок среагировал на x20 меньшую стоимость обучения R1, и типа все эти уже трлнные инвестиции в строительство мега-ИИ-кластеров не оправданы😳

Но обучение базовых моделей, думаю, забирает не больше 5% этих огромных мощностей.. Остальное тратится не на инфраструктуру для обучения таких моделей, а на инференс, т.е. вычислительные мощности для запуска тысяч ИИ-агентов для миллиардов людей, добавьте туда мультимодальность (обработка видео, голоса, изображений, логические размышления, растущий контескт и работа с памятью) - потребность во всем этом в эру агентности будет только расти📈

Поэтому, уверен, ребята из фонда, финансирующего DeepSeek, успели закупиться “дешевой” NVIDIA🧠

PS Ну и обещанная бомба)) Когда я писал пост, вспомнил слайд с презентации Microsoft в мае 2024, на котором показана эволюция GPT, где каждое поколение сравнивалось: GPT3 с акулой, GPT4 с касаткой, GPT5 с огромным китом.. (см. картинку☝️)

А теперь гляньте на лого DeepSeek’а))) мать его гребаный КИТ😂😂😂

Все не просто так, и не ждите более в индустрии ИИ честной игры..

PPS пару дней назад вся база запросов пользователей DeepSeek “утекла” в сеть - во всем виноваты хакеры😀

Все свидетельства изложенных фактов в комментах👉))

ЧИТАТЬ D_PEOPLE
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/kantor_ai/405
Create:
Last Update:

Вы просили про DeepSeek - ситуация вкрай запутана🤔

Полный обзор всего загадочного и странного в этой истории по порядку:

1️⃣Начнем с того, действительно ли DeepSeek R1 лучше ведущих закрытых моделей - нет..

Да, он хорош, но по бенчмаркам на уровне o1 от OpenAI без какого-то превосходства, да и по ощущениям (я пользую и ту и ту) на обычных жизненных задачах модели очень близки.

Но все равно успех DeepSeek удивителен, мы еще забываем про V3, которая ранее превзошла GPT4o и Claude 3.5⭐️⭐️⭐️

А еще DeepSeek лучше всех справилась с “последним экзаменом человечества" - тестом из 3 тыс. вопросов, большинство из которых составлялись учеными⚡️⚡️⚡️

Все модели🤖: Gemini от Google, Claude от Anthropic, Grok от xAI, 4o и o1 от OpenAI и DeepSeek R1, - этот тест провалили, не набрав и 10%, но..

R1 получила 9,4%, а o1 всего 9,1% при том, что R1 не работает с картинками и такие вопросы пропускала

2️⃣В чем же тогда поднявшийся ор?..
DeepSeek ворвалась в лидеры менее, чем за год, а еще ее модели открытые и бесплатные (говорят, халява на R1 до 8го февраля)💸

+ китайцы сделали хитрый ход, забрав полрынка разрабов — API DeepSeek’а на 100% совместимо с библиотеками OpenAI, т.е. для миграции нужно просто удалить платный API от OpenAI и вставить бесплатный от DeepSeek’а🤣🤣🤣

3️⃣Самое большое влияние на этот разгон в стратосферу оказала инфа о том, что обучение R1 в 20 раз дешевле..
Давайте разбираться..

Во-первых, есть мнение, что DeepSeek перенял наработки от Llama после ее мощного рывка в 2024м, когда она вынесла всех по бенчам и сделалась открытой..

Если это так, то тогда с какого момента считать стоимость обучения и что там в ядре на L0 (выложил в комменты уровни обучения моделей)?.. Если там Llama - тогда ясно, почему DeepSeek такая “дешевая”🗡

Во-вторых, мы не знаем как и для чего учили модель..
Учитывая, что превосходство R1 не особо ощущается, может ее и учили на бенчи с арены - у всех “производителей” моделей эта практика стала нормой👍

А еще DeepSeek финансируется китайским хедж-фондом High-Flyer💸, основанным Лян Вэньфэном, а что важно финансистам? Чтобы модель стоила поменьше, а эффект от нее был побольше.. А что значит побольше? Шаг к AGI? Нет, конечно.. Качнуть рынки?.. Возможно🤙

В-третьих, сразу за взлетом R1 всплыл факт😁

Альтман почувствовал неладное - его беза узнала, что связанные с DeepSeek лица выкачивали через API OpenAI данные, обходя ограничения😈 По сути o1 учила R1💳

..OpenAI и Microsoft инициировали расследование, но доказательств никаких нет🔥

Т.е кто-то в OpenAI слил что нужно в DeepSeek, а DeepSeek с самого начала была “заточена” на низложение OpenAI.. Забавное свидетельство в конце поста))))

4️⃣Вернемся к “качнуть рынки” - чем обусловлено крушение рынка и антирекорд NVIDIA: -12% и -400 млрд $ за сутки?..

Да ничем - чем выше хайп в ИИ, тем меньше новости и колебания рынка связаны с реальностью🥳

Рынок среагировал на x20 меньшую стоимость обучения R1, и типа все эти уже трлнные инвестиции в строительство мега-ИИ-кластеров не оправданы😳

Но обучение базовых моделей, думаю, забирает не больше 5% этих огромных мощностей.. Остальное тратится не на инфраструктуру для обучения таких моделей, а на инференс, т.е. вычислительные мощности для запуска тысяч ИИ-агентов для миллиардов людей, добавьте туда мультимодальность (обработка видео, голоса, изображений, логические размышления, растущий контескт и работа с памятью) - потребность во всем этом в эру агентности будет только расти📈

Поэтому, уверен, ребята из фонда, финансирующего DeepSeek, успели закупиться “дешевой” NVIDIA🧠

PS Ну и обещанная бомба)) Когда я писал пост, вспомнил слайд с презентации Microsoft в мае 2024, на котором показана эволюция GPT, где каждое поколение сравнивалось: GPT3 с акулой, GPT4 с касаткой, GPT5 с огромным китом.. (см. картинку☝️)

А теперь гляньте на лого DeepSeek’а))) мать его гребаный КИТ😂😂😂

Все не просто так, и не ждите более в индустрии ИИ честной игры..

PPS пару дней назад вся база запросов пользователей DeepSeek “утекла” в сеть - во всем виноваты хакеры😀

Все свидетельства изложенных фактов в комментах👉))

ЧИТАТЬ D_PEOPLE

BY Kantor.AI





Share with your friend now:
tg-me.com/kantor_ai/405

View MORE
Open in Telegram


Kantor AI Telegram | DID YOU KNOW?

Date: |

To pay the bills, Mr. Durov is issuing investors $1 billion to $1.5 billion of company debt, with the promise of discounted equity if the company eventually goes public, the people briefed on the plans said. He has also announced plans to start selling ads in public Telegram channels as soon as later this year, as well as offering other premium services for businesses and users.

Find Channels On Telegram?

Telegram is an aspiring new messaging app that’s taking the world by storm. The app is free, fast, and claims to be one of the safest messengers around. It allows people to connect easily, without any boundaries.You can use channels on Telegram, which are similar to Facebook pages. If you’re wondering how to find channels on Telegram, you’re in the right place. Keep reading and you’ll find out how. Also, you’ll learn more about channels, creating channels yourself, and the difference between private and public Telegram channels.

Kantor AI from sg


Telegram Kantor.AI
FROM USA