رونمایی از جدیدترین مدل هوش مصنوعی GPT-4 توسط شرکت OpenAI
به گزارش نبض دیجیتال، جدیدترین مدل هوش مصنوعی GPT-4 توسط شرکت OpenAI، عرضه کرد. این شرکت که سازنده چتبات ChatGPT است اذعان دارد که این مدل قادر به درک تصاویر و متون است و از امروز از طریق سرویس پولی ChatGPT Plus در اختیار افراد قرار میگیرد.
در ادامه با نبض دیجیتال همراه شوید.
مدل GPT-4 از ورودیهای متنی و تصویری پشتیبانی میکند و خروجیهای آنها تنها بهصورت متن خواهد بود که نسبت به مدل GPT-3.5 یک پیشرفت مهم محسوب میشود. شرکت OpenAI به مدت 6 ماه بهطور مکرر از طریق برنامههای آزمایشی خصمانه و همچنین ChatGPT، مشغول آزمایش این مدل بوده تا به بهترین نتایج دست پیدا کند.
شرکت OpenAI اذعان دارد که این مدل از همیشه خلاقتر است و میتواند مسائل دشوار را با دقت بالاتری حل کند. درحالحاضر این کمپانی با چندین شرکت بزرگ برای ادغام هوش مصنوعی GPT-4 در محصولاتشان همکاری کرده است که شامل دولینگو و Stripe میشود.
اگرچه هوش مصنوعی GPT-4 از ورودیهای متنی و تصویری پشتیبانی میکند، اما تنها با متن به کاربران جواب میدهد. همانطور که گفتیم، این مدل از طریق سرویس ChatGPT پلاس با هزینه ماهانه 20 دلار در اختیار کاربران قرار میگیرد و همچنین طبق گفته مایکروسافت، این مدل برای چتبات بینگ مورد استفاده قرار گرفته است.
به گفته OpenAI، در مکالمات معمولی تفاوت چندانی میان GPT-4 و GPT-3.5 وجود ندارد (GPT-3.5 برای ChatGPT استفاده شده است). سم آلتمن، مدیرعامل OpenAI در توییتی گفته که هوش مصنوعی GPT-4 همچنان ناقص است و محدودیت دارد، بااینحال همچنان در اولین استفاده از آن تحت تأثیر قرار میگیرید.
سازنده GPT-4 میگوید بهبودهای این مدل در چندین آزمون و بنچمارک ازجمله LSAT و SAT Math مشهود است. در آزمونها GPT-4 توانسته نمرات بالایی کسب کند. GPT-4 درواقع یک مدل چند وجهی است که میتواند ورودیهای متن و تصویر را قبول کند، اما خروجیها بهصورت متن در اختیار کاربران قرار میگیرند.
به گفته OpenAI، این مدل میتواند بهطور همزمان متن و عکس را تجزیهوتحلیل کند تا قادر به تحلیل ورودیهای پیچیدهتر باشد. GPT-4 به مدت 6 ماه تحت آزمایشهای ایمنی قرار داشته و به گفته سازندهاش، نسبت به مدل قبلی، GPT-3.5 تا 82 درصد کمتر به درخواستهای غیرمجاز پاسخ میدهد و همچنین 40 درصد احتمال بیشتری وجود دارد که پاسخهای واقعی بدهد.