Telegram Group & Telegram Channel
خلاصه ارائه دیروز OpenAI و شفاف‌سازی برخی اصطلاحات و زمان‌بندی

دیروز OpenAI ارائه خیلی جالبی داشت که سریع ترند شد! بیایید باهم خلاصه‌وار به اون نگاهی بندازیم و چند تا اصطلاح و زمان‌بندی رو روشن کنیم.

پیشنهاد می‌کنم دو تا داکیومنت کوتاه رو که دیروز منتشر شدن بخونید:

1️⃣ [لینک اول توضیح دسترسی به GPT-4، GPT-4 Turbo و GPT-4o]
2️⃣ [لینک دوم درباره قابلیت‌های صوتی جدید چت‌جی‌پی‌تی و رایگان شدن آن]

شاید با دیدن قابلیت‌های صوتی جدید در چت‌جی‌پی‌تی وسوسه شدید اون رو امتحان کنید، ولی متاسفانه باید فعلا صبر کنید😩.

چت‌جی‌پی‌تی فعلا به روش قدیمی جواب شما رو میده. یعنی متن رو به صوت و برعکس تبدیل می‌کنه، نه با اون سرعت و هوشمندی‌ای که توی نمایش‌ها دیدیم.
در حال حاضر، چت‌جی‌پی‌تی از قابلیت “حالت صوتی” که از اول وجود داشته برای پشتیبانی از صدا استفاده می‌کنه. قابلیت‌های صوتی و تصویری جدید GPT-4o به زودی به چت‌جی‌پی‌تی اضافه میشه. (بیشتر در این مورد پایین توضیح میدیم).

یعنی مدل هوشمند جدید با روش قدیمی (کندتر) با شما صحبت می‌کنه. مدل سریع‌تر و جدیدتر به زودی در دسترس قرار می‌گیره، بله، و حتی بعدا می‌تونه آواز هم بخونه!

اون اپلیکیشن با تمام امکاناتی که توی نمایش دیدیم، آماده‌ست، ولی فعلا فقط برای مک. به تدریج در مناطق و حساب‌های کاربری مختلف عرضه میشه. چت‌جی‌پی‌تی به شما اطلاع میده.

برای ویندوز فعلا خبری نیست: قراره اواخر امسال نسخه ویندوز هم عرضه بشه.

درباره محدودیت پیام: "کاربران پلاس می‌تونن تا ۸۰ پیام هر ۳ ساعت با GPT-4o و تا ۴۰ پیام هر ۳ ساعت با GPT-4 ارسال کنن. ممکنه این محدودیت در ساعات اوج ترافیک برای اینکه GPT-4 و GPT-4o برای تعداد بیشتری از افراد در دسترس باشه، کاهش پیدا کنه." برای حساب‌های رایگان، این محدودیت می‌تونه خیلی کم باشه، مخصوصا اگه سرور نزدیک شما شلوغ باشه. حتی گاهی اوقات فقط ۲ تا ۴ پیام. اول از همه محدودیت حساب‌های رایگان کم میشه و به ۳.۵ تا پیام در هر ۳ ساعت تغییر می‌کنه.

ظرفیت حافظه مدل GPT-4o هم 128 کیلوبایت هست. خیلی زیاده. برای ۹۵ درصد از کاربران خیلی زیاده. به طور کلی این مقدار، حجم متن و پیام‌های یه چت رو شامل میشه که مدل برای پاسخ دادن به شما توی حافظه نگه میداره تا بر اساس اطلاعاتی که "تو مغزش داره" جواب بده.

مدل جدید تصاویر رو بهتر درک می‌کنه: قابلیت‌های تصویری GPT-4o عملکرد بهتری نسبت به GPT-4 توربو داره.

دو برابر سریع‌تره (این توی چت‌جی‌پی‌تی قابل توجهه): GPT-4o دو برابر سریع‌تر از GPT-4 توربو هست.

پشتیبانی GPT-4o از زبان‌های غیرانگلیسی نسبت به GPT-4 توربو بهبود پیدا کرده.

برای علاقه‌مندان به API:
قیمت: GPT-4o نسبت به GPT-4 توربو ۵۰ درصد ارزون‌تره و قیمتش ۵ دلار به ازای هر یک میلیون توکن ورودی و ۱۵ دلار به ازای هر یک میلیون توکن خروجی هست.
محدودیت سرعت: محدودیت سرعت GPT-4o پنج برابر بیشتر از GPT-4 توربو هست - تا ۱۰ میلیون توکن در دقیقه.

این قابلیت‌های چندوجهی به تدریج فعال میشن. مثلا تبدیل صدا به صدا، تصویر به تصویر، و مکالمه با ویدیو. فکر می‌کنم به زودی شاهد آپدیت DALL·E 3 یا یه روش کاملا جدید برای تولید تصویر باشیم. باید صبر کنیم.

در همین حال، GPT-4o در تست‌های مختلف عملکرد بهتری نسبت به مدل‌های دیگه داره و به صورت رایگان در چت‌جی‌پی‌تی در دسترسه.

🖇مطالب مرتبط:
https://www.tg-me.com/us/Tensorflow @CVision /com.cvision/3513
https://www.tg-me.com/us/Tensorflow @CVision /com.cvision/3514
https://www.tg-me.com/us/Tensorflow @CVision /com.cvision/3517
https://www.tg-me.com/us/Tensorflow @CVision /com.cvision/3518
https://www.tg-me.com/us/Tensorflow @CVision /com.cvision/3519

@cvision



tg-me.com/cvision/3525
Create:
Last Update:

خلاصه ارائه دیروز OpenAI و شفاف‌سازی برخی اصطلاحات و زمان‌بندی

دیروز OpenAI ارائه خیلی جالبی داشت که سریع ترند شد! بیایید باهم خلاصه‌وار به اون نگاهی بندازیم و چند تا اصطلاح و زمان‌بندی رو روشن کنیم.

پیشنهاد می‌کنم دو تا داکیومنت کوتاه رو که دیروز منتشر شدن بخونید:

1️⃣ [لینک اول توضیح دسترسی به GPT-4، GPT-4 Turbo و GPT-4o]
2️⃣ [لینک دوم درباره قابلیت‌های صوتی جدید چت‌جی‌پی‌تی و رایگان شدن آن]

شاید با دیدن قابلیت‌های صوتی جدید در چت‌جی‌پی‌تی وسوسه شدید اون رو امتحان کنید، ولی متاسفانه باید فعلا صبر کنید😩.

چت‌جی‌پی‌تی فعلا به روش قدیمی جواب شما رو میده. یعنی متن رو به صوت و برعکس تبدیل می‌کنه، نه با اون سرعت و هوشمندی‌ای که توی نمایش‌ها دیدیم.
در حال حاضر، چت‌جی‌پی‌تی از قابلیت “حالت صوتی” که از اول وجود داشته برای پشتیبانی از صدا استفاده می‌کنه. قابلیت‌های صوتی و تصویری جدید GPT-4o به زودی به چت‌جی‌پی‌تی اضافه میشه. (بیشتر در این مورد پایین توضیح میدیم).

یعنی مدل هوشمند جدید با روش قدیمی (کندتر) با شما صحبت می‌کنه. مدل سریع‌تر و جدیدتر به زودی در دسترس قرار می‌گیره، بله، و حتی بعدا می‌تونه آواز هم بخونه!

اون اپلیکیشن با تمام امکاناتی که توی نمایش دیدیم، آماده‌ست، ولی فعلا فقط برای مک. به تدریج در مناطق و حساب‌های کاربری مختلف عرضه میشه. چت‌جی‌پی‌تی به شما اطلاع میده.

برای ویندوز فعلا خبری نیست: قراره اواخر امسال نسخه ویندوز هم عرضه بشه.

درباره محدودیت پیام: "کاربران پلاس می‌تونن تا ۸۰ پیام هر ۳ ساعت با GPT-4o و تا ۴۰ پیام هر ۳ ساعت با GPT-4 ارسال کنن. ممکنه این محدودیت در ساعات اوج ترافیک برای اینکه GPT-4 و GPT-4o برای تعداد بیشتری از افراد در دسترس باشه، کاهش پیدا کنه." برای حساب‌های رایگان، این محدودیت می‌تونه خیلی کم باشه، مخصوصا اگه سرور نزدیک شما شلوغ باشه. حتی گاهی اوقات فقط ۲ تا ۴ پیام. اول از همه محدودیت حساب‌های رایگان کم میشه و به ۳.۵ تا پیام در هر ۳ ساعت تغییر می‌کنه.

ظرفیت حافظه مدل GPT-4o هم 128 کیلوبایت هست. خیلی زیاده. برای ۹۵ درصد از کاربران خیلی زیاده. به طور کلی این مقدار، حجم متن و پیام‌های یه چت رو شامل میشه که مدل برای پاسخ دادن به شما توی حافظه نگه میداره تا بر اساس اطلاعاتی که "تو مغزش داره" جواب بده.

مدل جدید تصاویر رو بهتر درک می‌کنه: قابلیت‌های تصویری GPT-4o عملکرد بهتری نسبت به GPT-4 توربو داره.

دو برابر سریع‌تره (این توی چت‌جی‌پی‌تی قابل توجهه): GPT-4o دو برابر سریع‌تر از GPT-4 توربو هست.

پشتیبانی GPT-4o از زبان‌های غیرانگلیسی نسبت به GPT-4 توربو بهبود پیدا کرده.

برای علاقه‌مندان به API:
قیمت: GPT-4o نسبت به GPT-4 توربو ۵۰ درصد ارزون‌تره و قیمتش ۵ دلار به ازای هر یک میلیون توکن ورودی و ۱۵ دلار به ازای هر یک میلیون توکن خروجی هست.
محدودیت سرعت: محدودیت سرعت GPT-4o پنج برابر بیشتر از GPT-4 توربو هست - تا ۱۰ میلیون توکن در دقیقه.

این قابلیت‌های چندوجهی به تدریج فعال میشن. مثلا تبدیل صدا به صدا، تصویر به تصویر، و مکالمه با ویدیو. فکر می‌کنم به زودی شاهد آپدیت DALL·E 3 یا یه روش کاملا جدید برای تولید تصویر باشیم. باید صبر کنیم.

در همین حال، GPT-4o در تست‌های مختلف عملکرد بهتری نسبت به مدل‌های دیگه داره و به صورت رایگان در چت‌جی‌پی‌تی در دسترسه.

🖇مطالب مرتبط:
https://www.tg-me.com/us/Tensorflow @CVision /com.cvision/3513
https://www.tg-me.com/us/Tensorflow @CVision /com.cvision/3514
https://www.tg-me.com/us/Tensorflow @CVision /com.cvision/3517
https://www.tg-me.com/us/Tensorflow @CVision /com.cvision/3518
https://www.tg-me.com/us/Tensorflow @CVision /com.cvision/3519

@cvision

BY Tensorflow(@CVision)




Share with your friend now:
tg-me.com/cvision/3525

View MORE
Open in Telegram


Tensorflow @CVision Telegram | DID YOU KNOW?

Date: |

How to Use Bitcoin?

n the U.S. people generally use Bitcoin as an alternative investment, helping diversify a portfolio apart from stocks and bonds. You can also use Bitcoin to make purchases, but the number of vendors that accept the cryptocurrency is still limited. Big companies that accept Bitcoin include Overstock, AT&T and Twitch. You may also find that some small local retailers or certain websites take Bitcoin, but you’ll have to do some digging. That said, PayPal has announced that it will enable cryptocurrency as a funding source for purchases this year, financing purchases by automatically converting crypto holdings to fiat currency for users. “They have 346 million users and they’re connected to 26 million merchants,” says Spencer Montgomery, founder of Uinta Crypto Consulting. “It’s huge.”

That strategy is the acquisition of a value-priced company by a growth company. Using the growth company's higher-priced stock for the acquisition can produce outsized revenue and earnings growth. Even better is the use of cash, particularly in a growth period when financial aggressiveness is accepted and even positively viewed.he key public rationale behind this strategy is synergy - the 1+1=3 view. In many cases, synergy does occur and is valuable. However, in other cases, particularly as the strategy gains popularity, it doesn't. Joining two different organizations, workforces and cultures is a challenge. Simply putting two separate organizations together necessarily creates disruptions and conflicts that can undermine both operations.

Tensorflow @CVision from us


Telegram Tensorflow(@CVision)
FROM USA