Telegram Group & Telegram Channel
Forwarded from D_PEOPLE [Trofimov]
Вы просили про DeepSeek - ситуация вкрай запутана🤔

Полный обзор всего загадочного и странного в этой истории по порядку:

1️⃣Начнем с того, действительно ли DeepSeek R1 лучше ведущих закрытых моделей - нет..

Да, он хорош, но по бенчмаркам на уровне o1 от OpenAI без какого-то превосходства, да и по ощущениям (я пользую и ту и ту) на обычных жизненных задачах модели очень близки.

Но все равно успех DeepSeek удивителен, мы еще забываем про V3, которая ранее превзошла GPT4o и Claude 3.5⭐️⭐️⭐️

А еще DeepSeek лучше всех справилась с “последним экзаменом человечества" - тестом из 3 тыс. вопросов, большинство из которых составлялись учеными⚡️⚡️⚡️

Все модели🤖: Gemini от Google, Claude от Anthropic, Grok от xAI, 4o и o1 от OpenAI и DeepSeek R1, - этот тест провалили, не набрав и 10%, но..

R1 получила 9,4%, а o1 всего 9,1% при том, что R1 не работает с картинками и такие вопросы пропускала

2️⃣В чем же тогда поднявшийся ор?..
DeepSeek ворвалась в лидеры менее, чем за год, а еще ее модели открытые и бесплатные (говорят, халява на R1 до 8го февраля)💸

+ китайцы сделали хитрый ход, забрав полрынка разрабов — API DeepSeek’а на 100% совместимо с библиотеками OpenAI, т.е. для миграции нужно просто удалить платный API от OpenAI и вставить бесплатный от DeepSeek’а🤣🤣🤣

3️⃣Самое большое влияние на этот разгон в стратосферу оказала инфа о том, что обучение R1 в 20 раз дешевле..
Давайте разбираться..

Во-первых, есть мнение, что DeepSeek перенял наработки от Llama после ее мощного рывка в 2024м, когда она вынесла всех по бенчам и сделалась открытой..

Если это так, то тогда с какого момента считать стоимость обучения и что там в ядре на L0 (выложил в комменты уровни обучения моделей)?.. Если там Llama - тогда ясно, почему DeepSeek такая “дешевая”🗡

Во-вторых, мы не знаем как и для чего учили модель..
Учитывая, что превосходство R1 не особо ощущается, может ее и учили на бенчи с арены - у всех “производителей” моделей эта практика стала нормой👍

А еще DeepSeek финансируется китайским хедж-фондом High-Flyer💸, основанным Лян Вэньфэном, а что важно финансистам? Чтобы модель стоила поменьше, а эффект от нее был побольше.. А что значит побольше? Шаг к AGI? Нет, конечно.. Качнуть рынки?.. Возможно🤙

В-третьих, сразу за взлетом R1 всплыл факт😁

Альтман почувствовал неладное - его беза узнала, что связанные с DeepSeek лица выкачивали через API OpenAI данные, обходя ограничения😈 По сути o1 учила R1💳

..OpenAI и Microsoft инициировали расследование, но доказательств никаких нет🔥

Т.е кто-то в OpenAI слил что нужно в DeepSeek, а DeepSeek с самого начала была “заточена” на низложение OpenAI.. Забавное свидетельство в конце поста))))

4️⃣Вернемся к “качнуть рынки” - чем обусловлено крушение рынка и антирекорд NVIDIA: -12% и -400 млрд $ за сутки?..

Да ничем - чем выше хайп в ИИ, тем меньше новости и колебания рынка связаны с реальностью🥳

Рынок среагировал на x20 меньшую стоимость обучения R1, и типа все эти уже трлнные инвестиции в строительство мега-ИИ-кластеров не оправданы😳

Но обучение базовых моделей, думаю, забирает не больше 5% этих огромных мощностей.. Остальное тратится не на инфраструктуру для обучения таких моделей, а на инференс, т.е. вычислительные мощности для запуска тысяч ИИ-агентов для миллиардов людей, добавьте туда мультимодальность (обработка видео, голоса, изображений, логические размышления, растущий контескт и работа с памятью) - потребность во всем этом в эру агентности будет только расти📈

Поэтому, уверен, ребята из фонда, финансирующего DeepSeek, успели закупиться “дешевой” NVIDIA🧠

PS Ну и обещанная бомба)) Когда я писал пост, вспомнил слайд с презентации Microsoft в мае 2024, на котором показана эволюция GPT, где каждое поколение сравнивалось: GPT3 с акулой, GPT4 с касаткой, GPT5 с огромным китом.. (см. картинку☝️)

А теперь гляньте на лого DeepSeek’а))) мать его гребаный КИТ😂😂😂

Все не просто так, и не ждите более в индустрии ИИ честной игры..

PPS пару дней назад вся база запросов пользователей DeepSeek “утекла” в сеть - во всем виноваты хакеры😀

Все свидетельства изложенных фактов в комментах👉))

ЧИТАТЬ D_PEOPLE
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/kantor_ai/405
Create:
Last Update:

Вы просили про DeepSeek - ситуация вкрай запутана🤔

Полный обзор всего загадочного и странного в этой истории по порядку:

1️⃣Начнем с того, действительно ли DeepSeek R1 лучше ведущих закрытых моделей - нет..

Да, он хорош, но по бенчмаркам на уровне o1 от OpenAI без какого-то превосходства, да и по ощущениям (я пользую и ту и ту) на обычных жизненных задачах модели очень близки.

Но все равно успех DeepSeek удивителен, мы еще забываем про V3, которая ранее превзошла GPT4o и Claude 3.5⭐️⭐️⭐️

А еще DeepSeek лучше всех справилась с “последним экзаменом человечества" - тестом из 3 тыс. вопросов, большинство из которых составлялись учеными⚡️⚡️⚡️

Все модели🤖: Gemini от Google, Claude от Anthropic, Grok от xAI, 4o и o1 от OpenAI и DeepSeek R1, - этот тест провалили, не набрав и 10%, но..

R1 получила 9,4%, а o1 всего 9,1% при том, что R1 не работает с картинками и такие вопросы пропускала

2️⃣В чем же тогда поднявшийся ор?..
DeepSeek ворвалась в лидеры менее, чем за год, а еще ее модели открытые и бесплатные (говорят, халява на R1 до 8го февраля)💸

+ китайцы сделали хитрый ход, забрав полрынка разрабов — API DeepSeek’а на 100% совместимо с библиотеками OpenAI, т.е. для миграции нужно просто удалить платный API от OpenAI и вставить бесплатный от DeepSeek’а🤣🤣🤣

3️⃣Самое большое влияние на этот разгон в стратосферу оказала инфа о том, что обучение R1 в 20 раз дешевле..
Давайте разбираться..

Во-первых, есть мнение, что DeepSeek перенял наработки от Llama после ее мощного рывка в 2024м, когда она вынесла всех по бенчам и сделалась открытой..

Если это так, то тогда с какого момента считать стоимость обучения и что там в ядре на L0 (выложил в комменты уровни обучения моделей)?.. Если там Llama - тогда ясно, почему DeepSeek такая “дешевая”🗡

Во-вторых, мы не знаем как и для чего учили модель..
Учитывая, что превосходство R1 не особо ощущается, может ее и учили на бенчи с арены - у всех “производителей” моделей эта практика стала нормой👍

А еще DeepSeek финансируется китайским хедж-фондом High-Flyer💸, основанным Лян Вэньфэном, а что важно финансистам? Чтобы модель стоила поменьше, а эффект от нее был побольше.. А что значит побольше? Шаг к AGI? Нет, конечно.. Качнуть рынки?.. Возможно🤙

В-третьих, сразу за взлетом R1 всплыл факт😁

Альтман почувствовал неладное - его беза узнала, что связанные с DeepSeek лица выкачивали через API OpenAI данные, обходя ограничения😈 По сути o1 учила R1💳

..OpenAI и Microsoft инициировали расследование, но доказательств никаких нет🔥

Т.е кто-то в OpenAI слил что нужно в DeepSeek, а DeepSeek с самого начала была “заточена” на низложение OpenAI.. Забавное свидетельство в конце поста))))

4️⃣Вернемся к “качнуть рынки” - чем обусловлено крушение рынка и антирекорд NVIDIA: -12% и -400 млрд $ за сутки?..

Да ничем - чем выше хайп в ИИ, тем меньше новости и колебания рынка связаны с реальностью🥳

Рынок среагировал на x20 меньшую стоимость обучения R1, и типа все эти уже трлнные инвестиции в строительство мега-ИИ-кластеров не оправданы😳

Но обучение базовых моделей, думаю, забирает не больше 5% этих огромных мощностей.. Остальное тратится не на инфраструктуру для обучения таких моделей, а на инференс, т.е. вычислительные мощности для запуска тысяч ИИ-агентов для миллиардов людей, добавьте туда мультимодальность (обработка видео, голоса, изображений, логические размышления, растущий контескт и работа с памятью) - потребность во всем этом в эру агентности будет только расти📈

Поэтому, уверен, ребята из фонда, финансирующего DeepSeek, успели закупиться “дешевой” NVIDIA🧠

PS Ну и обещанная бомба)) Когда я писал пост, вспомнил слайд с презентации Microsoft в мае 2024, на котором показана эволюция GPT, где каждое поколение сравнивалось: GPT3 с акулой, GPT4 с касаткой, GPT5 с огромным китом.. (см. картинку☝️)

А теперь гляньте на лого DeepSeek’а))) мать его гребаный КИТ😂😂😂

Все не просто так, и не ждите более в индустрии ИИ честной игры..

PPS пару дней назад вся база запросов пользователей DeepSeek “утекла” в сеть - во всем виноваты хакеры😀

Все свидетельства изложенных фактов в комментах👉))

ЧИТАТЬ D_PEOPLE

BY Kantor.AI





Share with your friend now:
tg-me.com/kantor_ai/405

View MORE
Open in Telegram


Kantor AI Telegram | DID YOU KNOW?

Date: |

Telegram hopes to raise $1bn with a convertible bond private placement

The super secure UAE-based Telegram messenger service, developed by Russian-born software icon Pavel Durov, is looking to raise $1bn through a bond placement to a limited number of investors from Russia, Europe, Asia and the Middle East, the Kommersant daily reported citing unnamed sources on February 18, 2021.The issue reportedly comprises exchange bonds that could be converted into equity in the messaging service that is currently 100% owned by Durov and his brother Nikolai.Kommersant reports that the price of the conversion would be at a 10% discount to a potential IPO should it happen within five years.The minimum bond placement is said to be set at $50mn, but could be lowered to $10mn. Five-year bonds could carry an annual coupon of 7-8%.

Telegram auto-delete message, expiring invites, and more

elegram is updating its messaging app with options for auto-deleting messages, expiring invite links, and new unlimited groups, the company shared in a blog post. Much like Signal, Telegram received a burst of new users in the confusion over WhatsApp’s privacy policy and now the company is adopting features that were already part of its competitors’ apps, features which offer more security and privacy. Auto-deleting messages were already possible in Telegram’s encrypted Secret Chats, but this new update for iOS and Android adds the option to make messages disappear in any kind of chat. Auto-delete can be enabled inside of chats, and set to delete either 24 hours or seven days after messages are sent. Auto-delete won’t remove every message though; if a message was sent before the feature was turned on, it’ll stick around. Telegram’s competitors have had similar features: WhatsApp introduced a feature in 2020 and Signal has had disappearing messages since at least 2016.

Kantor AI from tw


Telegram Kantor.AI
FROM USA