Telegram Group & Telegram Channel
Forwarded from D_PEOPLE [Trofimov]
Вы просили про DeepSeek - ситуация вкрай запутана🤔

Полный обзор всего загадочного и странного в этой истории по порядку:

1️⃣Начнем с того, действительно ли DeepSeek R1 лучше ведущих закрытых моделей - нет..

Да, он хорош, но по бенчмаркам на уровне o1 от OpenAI без какого-то превосходства, да и по ощущениям (я пользую и ту и ту) на обычных жизненных задачах модели очень близки.

Но все равно успех DeepSeek удивителен, мы еще забываем про V3, которая ранее превзошла GPT4o и Claude 3.5⭐️⭐️⭐️

А еще DeepSeek лучше всех справилась с “последним экзаменом человечества" - тестом из 3 тыс. вопросов, большинство из которых составлялись учеными⚡️⚡️⚡️

Все модели🤖: Gemini от Google, Claude от Anthropic, Grok от xAI, 4o и o1 от OpenAI и DeepSeek R1, - этот тест провалили, не набрав и 10%, но..

R1 получила 9,4%, а o1 всего 9,1% при том, что R1 не работает с картинками и такие вопросы пропускала

2️⃣В чем же тогда поднявшийся ор?..
DeepSeek ворвалась в лидеры менее, чем за год, а еще ее модели открытые и бесплатные (говорят, халява на R1 до 8го февраля)💸

+ китайцы сделали хитрый ход, забрав полрынка разрабов — API DeepSeek’а на 100% совместимо с библиотеками OpenAI, т.е. для миграции нужно просто удалить платный API от OpenAI и вставить бесплатный от DeepSeek’а🤣🤣🤣

3️⃣Самое большое влияние на этот разгон в стратосферу оказала инфа о том, что обучение R1 в 20 раз дешевле..
Давайте разбираться..

Во-первых, есть мнение, что DeepSeek перенял наработки от Llama после ее мощного рывка в 2024м, когда она вынесла всех по бенчам и сделалась открытой..

Если это так, то тогда с какого момента считать стоимость обучения и что там в ядре на L0 (выложил в комменты уровни обучения моделей)?.. Если там Llama - тогда ясно, почему DeepSeek такая “дешевая”🗡

Во-вторых, мы не знаем как и для чего учили модель..
Учитывая, что превосходство R1 не особо ощущается, может ее и учили на бенчи с арены - у всех “производителей” моделей эта практика стала нормой👍

А еще DeepSeek финансируется китайским хедж-фондом High-Flyer💸, основанным Лян Вэньфэном, а что важно финансистам? Чтобы модель стоила поменьше, а эффект от нее был побольше.. А что значит побольше? Шаг к AGI? Нет, конечно.. Качнуть рынки?.. Возможно🤙

В-третьих, сразу за взлетом R1 всплыл факт😁

Альтман почувствовал неладное - его беза узнала, что связанные с DeepSeek лица выкачивали через API OpenAI данные, обходя ограничения😈 По сути o1 учила R1💳

..OpenAI и Microsoft инициировали расследование, но доказательств никаких нет🔥

Т.е кто-то в OpenAI слил что нужно в DeepSeek, а DeepSeek с самого начала была “заточена” на низложение OpenAI.. Забавное свидетельство в конце поста))))

4️⃣Вернемся к “качнуть рынки” - чем обусловлено крушение рынка и антирекорд NVIDIA: -12% и -400 млрд $ за сутки?..

Да ничем - чем выше хайп в ИИ, тем меньше новости и колебания рынка связаны с реальностью🥳

Рынок среагировал на x20 меньшую стоимость обучения R1, и типа все эти уже трлнные инвестиции в строительство мега-ИИ-кластеров не оправданы😳

Но обучение базовых моделей, думаю, забирает не больше 5% этих огромных мощностей.. Остальное тратится не на инфраструктуру для обучения таких моделей, а на инференс, т.е. вычислительные мощности для запуска тысяч ИИ-агентов для миллиардов людей, добавьте туда мультимодальность (обработка видео, голоса, изображений, логические размышления, растущий контескт и работа с памятью) - потребность во всем этом в эру агентности будет только расти📈

Поэтому, уверен, ребята из фонда, финансирующего DeepSeek, успели закупиться “дешевой” NVIDIA🧠

PS Ну и обещанная бомба)) Когда я писал пост, вспомнил слайд с презентации Microsoft в мае 2024, на котором показана эволюция GPT, где каждое поколение сравнивалось: GPT3 с акулой, GPT4 с касаткой, GPT5 с огромным китом.. (см. картинку☝️)

А теперь гляньте на лого DeepSeek’а))) мать его гребаный КИТ😂😂😂

Все не просто так, и не ждите более в индустрии ИИ честной игры..

PPS пару дней назад вся база запросов пользователей DeepSeek “утекла” в сеть - во всем виноваты хакеры😀

Все свидетельства изложенных фактов в комментах👉))

ЧИТАТЬ D_PEOPLE
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/kantor_ai/405
Create:
Last Update:

Вы просили про DeepSeek - ситуация вкрай запутана🤔

Полный обзор всего загадочного и странного в этой истории по порядку:

1️⃣Начнем с того, действительно ли DeepSeek R1 лучше ведущих закрытых моделей - нет..

Да, он хорош, но по бенчмаркам на уровне o1 от OpenAI без какого-то превосходства, да и по ощущениям (я пользую и ту и ту) на обычных жизненных задачах модели очень близки.

Но все равно успех DeepSeek удивителен, мы еще забываем про V3, которая ранее превзошла GPT4o и Claude 3.5⭐️⭐️⭐️

А еще DeepSeek лучше всех справилась с “последним экзаменом человечества" - тестом из 3 тыс. вопросов, большинство из которых составлялись учеными⚡️⚡️⚡️

Все модели🤖: Gemini от Google, Claude от Anthropic, Grok от xAI, 4o и o1 от OpenAI и DeepSeek R1, - этот тест провалили, не набрав и 10%, но..

R1 получила 9,4%, а o1 всего 9,1% при том, что R1 не работает с картинками и такие вопросы пропускала

2️⃣В чем же тогда поднявшийся ор?..
DeepSeek ворвалась в лидеры менее, чем за год, а еще ее модели открытые и бесплатные (говорят, халява на R1 до 8го февраля)💸

+ китайцы сделали хитрый ход, забрав полрынка разрабов — API DeepSeek’а на 100% совместимо с библиотеками OpenAI, т.е. для миграции нужно просто удалить платный API от OpenAI и вставить бесплатный от DeepSeek’а🤣🤣🤣

3️⃣Самое большое влияние на этот разгон в стратосферу оказала инфа о том, что обучение R1 в 20 раз дешевле..
Давайте разбираться..

Во-первых, есть мнение, что DeepSeek перенял наработки от Llama после ее мощного рывка в 2024м, когда она вынесла всех по бенчам и сделалась открытой..

Если это так, то тогда с какого момента считать стоимость обучения и что там в ядре на L0 (выложил в комменты уровни обучения моделей)?.. Если там Llama - тогда ясно, почему DeepSeek такая “дешевая”🗡

Во-вторых, мы не знаем как и для чего учили модель..
Учитывая, что превосходство R1 не особо ощущается, может ее и учили на бенчи с арены - у всех “производителей” моделей эта практика стала нормой👍

А еще DeepSeek финансируется китайским хедж-фондом High-Flyer💸, основанным Лян Вэньфэном, а что важно финансистам? Чтобы модель стоила поменьше, а эффект от нее был побольше.. А что значит побольше? Шаг к AGI? Нет, конечно.. Качнуть рынки?.. Возможно🤙

В-третьих, сразу за взлетом R1 всплыл факт😁

Альтман почувствовал неладное - его беза узнала, что связанные с DeepSeek лица выкачивали через API OpenAI данные, обходя ограничения😈 По сути o1 учила R1💳

..OpenAI и Microsoft инициировали расследование, но доказательств никаких нет🔥

Т.е кто-то в OpenAI слил что нужно в DeepSeek, а DeepSeek с самого начала была “заточена” на низложение OpenAI.. Забавное свидетельство в конце поста))))

4️⃣Вернемся к “качнуть рынки” - чем обусловлено крушение рынка и антирекорд NVIDIA: -12% и -400 млрд $ за сутки?..

Да ничем - чем выше хайп в ИИ, тем меньше новости и колебания рынка связаны с реальностью🥳

Рынок среагировал на x20 меньшую стоимость обучения R1, и типа все эти уже трлнные инвестиции в строительство мега-ИИ-кластеров не оправданы😳

Но обучение базовых моделей, думаю, забирает не больше 5% этих огромных мощностей.. Остальное тратится не на инфраструктуру для обучения таких моделей, а на инференс, т.е. вычислительные мощности для запуска тысяч ИИ-агентов для миллиардов людей, добавьте туда мультимодальность (обработка видео, голоса, изображений, логические размышления, растущий контескт и работа с памятью) - потребность во всем этом в эру агентности будет только расти📈

Поэтому, уверен, ребята из фонда, финансирующего DeepSeek, успели закупиться “дешевой” NVIDIA🧠

PS Ну и обещанная бомба)) Когда я писал пост, вспомнил слайд с презентации Microsoft в мае 2024, на котором показана эволюция GPT, где каждое поколение сравнивалось: GPT3 с акулой, GPT4 с касаткой, GPT5 с огромным китом.. (см. картинку☝️)

А теперь гляньте на лого DeepSeek’а))) мать его гребаный КИТ😂😂😂

Все не просто так, и не ждите более в индустрии ИИ честной игры..

PPS пару дней назад вся база запросов пользователей DeepSeek “утекла” в сеть - во всем виноваты хакеры😀

Все свидетельства изложенных фактов в комментах👉))

ЧИТАТЬ D_PEOPLE

BY Kantor.AI





Share with your friend now:
tg-me.com/kantor_ai/405

View MORE
Open in Telegram


Kantor AI Telegram | DID YOU KNOW?

Date: |

How to Use Bitcoin?

n the U.S. people generally use Bitcoin as an alternative investment, helping diversify a portfolio apart from stocks and bonds. You can also use Bitcoin to make purchases, but the number of vendors that accept the cryptocurrency is still limited. Big companies that accept Bitcoin include Overstock, AT&T and Twitch. You may also find that some small local retailers or certain websites take Bitcoin, but you’ll have to do some digging. That said, PayPal has announced that it will enable cryptocurrency as a funding source for purchases this year, financing purchases by automatically converting crypto holdings to fiat currency for users. “They have 346 million users and they’re connected to 26 million merchants,” says Spencer Montgomery, founder of Uinta Crypto Consulting. “It’s huge.”

At a time when the Indian stock market is peaking and has rallied immensely compared to global markets, there are companies that have not performed in the last 10 years. These are definitely a minor portion of the market considering there are hundreds of stocks that have turned multibagger since 2020. What went wrong with these stocks? Reasons vary from corporate governance, sectoral weakness, company specific and so on. But the more important question is, are these stocks worth buying?

Kantor AI from it


Telegram Kantor.AI
FROM USA