سرمقاله

پاسداشت زبان فارسی / آرین احمدی

مشاهده کل سرمقاله ها

صفحات روزنامه

اخبار آنلاین

  • بسته تخفیفی ایرانسل به مناسبت روز مادر و روز پدر
  • ارائه بسته‌های ویژه همراه اول به‌مناسبت روز مادر
  • حضور همراه اول با مجموعه‌ای از سرویس‌های فناورانه در نمایشگاه تلکام 2024
  • مشاهده کل اخبار آنلاین

    کد خبر: 28298  |  صفحه آخر  |  تاریخ: 27 اردیبهشت 1403
    مدل هوش مصنوعی GPT-4o معرفی شد
    سریع‌تر، تواناتر و رایگان GPT-4o به‌عنوان مدل هوش مصنوعی پرچمدار جدید OpenAI از راه رسید. مدل هوش مصنوعی GPT-4o برپایه مدل پرچمدار قبلی OpenAI ساخته شده اما از جهات مختلفی بهبود پیدا کرده است و می‌تواند برقراری ارتباط با این فناوری را ساده‌تر و پویاتر کند. مدل هوش مصنوعی GPT-4o در اختیار تمام کاربران شامل کاربران سرویس رایگان و پولی این شرکت قرار می‌گیرد. قابلیت‌های متن و تصویر این مدل از امروز برای همه کاربران عرضه می‌شود، اما قابلیت جدید Voice Mode آن ابتدا به‌صورت آلفا از هفته‌های آینده برای کاربران ChatGPT Plus در دسترس قرار خواهد گرفت، و بعد به مرحله انتشار گسترده‌تر می‌رود.
    «میرا موراتی»، مدیر ارشد فناوری OpenAI در مراسم امشب مدعی شد که GPT-4o پارادایم همکاری و تعامل میان انسان و کامپیوتر را تغییر می‌دهد. او گفت این مدل بهبودیافته قادر به درک متن، صدا و تصویر است، و آن‌ها ماه‌ها برای عرضه این قابلیت‌ها برای تمام کاربران تلاش کرده‌اند.
    موراتی گفت بیش از 100 میلیون نفر به‌صورت مرتب از ChatGPT استفاده می‌کنند و مدل GPT-4o بهینه‌تر از GPT-4 شده است. در نتیجه، این شرکت GPTها یا همان چت‌بات‌های سفارشی را هم به نسخه رایگان ChatGPT می‌آورد.
    API مدل هوش مصنوعی GPT-4o دو برابر سریع‌تر و 50 درصد ارزان‌تر شده و محدودیت آن 5 برابر نسبت به GPT-4 توربو کاهش پیدا کرده است.
    با GPT-4o می‌توانید از داده‌ها، کدها و ابزارهای بینایی استفاده کنید تا برای مثال بتوانید تصاویر را تحلیل نمایید. یکی از ارتقاهای بزرگ این مدل جدید «گفتار زنده» است. GPT-4o می‌تواند به خود صدا گوش بدهد، به‌جای اینکه ابتدا صدا را به متن تبدیل کند و بعد آن را بفهمد.
    OpenAI در یک دمو نشان داد که این مدل چگونه می‌تواند حتی صدای تنفس کاربر را تشخیص بدهد و به او توصیه کند که با چه تکنیک‌هایی می‌تواند وضعیت تنفس خود را بهبود دهد. همچنین در این دمو به‌نظر می‌رسد که هوش مصنوعی بلافاصله پس از اتمام صدای کاربر، می‌تواند به او پاسخ بدهد. به‌علاوه، این Voice Mode جدید می‌تواند با احساسات مختلف با کاربر حرف بزند.
    در یک دموی دیگر، کارمند OpenAI با دوربین موبایل خود یک معادله ریاضی را به GPT-4o نشان داد. از هوش مصنوعی خواسته شد تا در حل این معادله به او کمک کند، اما جواب نهایی را ندهد. در پاسخ، این سیستم مراحل حل یک معادله ساده را توضیح داد و تقریباً نقش یک معلم را ایفا کرد.
    مدل هوش مصنوعی بهبودیافته OpenAI حالا می‌تواند حس چهره افراد را از طریق دوربین تشخیص دهد. در بخش دیگری از دمو، یک چهره خندان به GPT-4o نشان داده شد و این هوش مصنوعی به کاربر گفت: «نمی‌خواهی بگویی دلیل خوشحالی‌ات چیست؟»
    اگرچه GPT-4o برای کاربران رایگان نیز در دسترس قرار می‌گیرد، اما کاربران پولی می‌توانند روزانه پنج برابر بیشتر به این مدل هوش مصنوعی درخواست ارسال کنند. مدل GPT-4o تجربه استفاده از ChatGPT را به‌طرز قابل‌توجهی ارتقا می‌دهد و بسیار سریع‌تر است. این تغییر باعث می‌شود که تجربه مکالمه با این چت‌بات طبیعی‌تر جلوه کند. با استفاده از GPT-4o می‌توانید منوی یک رستوران خارجی را به هوش مصنوعی نشان دهید و ترجمه آیتم‌های داخل آن را دریافت کنید. این مدل همچنین قادر به ترجمه همزمان است. OpenAI می‌گوید در آینده حتی می‌تواند یک مسابقه ورزشی زنده را به ChatGPT نشان دهید و از هوش مصنوعی بخواهید قواعد آن را به شما توضیح دهد.