سام آلتمن روز دوشنبه در اولین کنفرانس توسعه دهندگان شرکت – OpenAI DevDay، توانمندترین مدل زبان بزرگ OpenAI – GPT-4 Turbo را معرفی کرد . آخرین نسخه GPT همچنین با پشتیبانی از Vision ارائه می شود، جایی که اکنون یک تصویر را به عنوان ورودی/زمینه می پذیرد.
GPT-4 Turbo می تواند زمینه را با حداکثر 128000 توکن یا 100000 کلمه بپذیرد و همچنین به روزترین مدل است که با داده ها تا آوریل 2023 آموزش دیده است. در مقایسه، پنجره زمینه در GPT-4 محدود به 32768 توکن. این بدان معنی است که پنجره های زمینه GPT-4 Turbo می توانند یک کتاب کامل با 300 صفحه متن را در یک اعلان جا دهند. این بدان معنی است که می توانید یک رمان کامل را وارد کنید و از GPT-4 Turbo بخواهید که آن را در یک حرکت بازنویسی کند.
مدل جدید هوش مصنوعی مولد فقط توانایی بیشتری ندارد. اجرای آن نیز ارزان تر است. در حالی که GPT-4 برای هر 1000 توکن (ورودی) 0.03 دلار هزینه دارد، GPT-4 Turbo به ازای هر 1000 توکن (ورودی) 0.01 دلار هزینه دارد. این بدان معناست که توسعهدهندگان میتوانند یک مدل توانمندتر را با قیمت بسیار پایینتری به کار گیرند.
توجه داشته باشید که دو نوع GPT-4 Turbo وجود دارد که یکی از آنها به ورودی متن محدود می شود، در حالی که GPT-4 Turbo با Vision می تواند هم متن و هم تصاویر را درک کند.
همچنین دارای یک مدل پیشرفته تبدیل متن به گفتار است که میتواند صدای طبیعی از متن از طریق یک API با شش صدای از پیش تعیین شده تولید کند. برای مفیدتر کردن آن برای توسعه دهندگان، OpenAI «حالت JSON» را به GPT-4 Turbo اضافه کرده است که به تولید خروجی در یک فرمت خاص کمک می کند.