كيفية استخدام وضع صوت ChatGPT المتقدم من OpenAI
تعمل OpenAI على توسيع إمكانية الوصول إلى وضع ChatGPT Advanced Voice الجديد، وهي ميزة من ChatGPT تتيح لك التحدث بشكل طبيعي مع نموذج الذكاء الاصطناعي. فهو يسمح لك بمقاطعة ردوده في مُنتصف الجمل، ويمكنه استشعار وتفسير عواطفك من نبرة صوتك وتعديل ردوده وفقًا لذلك.
روّجت OpenAI لهذه الميزات في مايو عندما كشفت عن GPT-4o، ولكن لم يتم إصدارها حتى يوليو، ثم أطلقت لمجموعة مدعوة فقط.
اقرأ أيضًا:
نموذج o1 – preview من OpenAI | هل اقتربنا من الذكاء الاصطناعي العام؟
بين المجانية والربحية – رحلة OpenAI نحو المستقبل
وصف المستخدمون الذين تمكنوا من تجربة الميزة -إلى حدٍ كبير- بأنها مساعد صوتي سريع وديناميكي وواقعي بشكل مُثير للإعجاب، والذي جعل توفره المحدود مُحبطًا بشكل خاص لبعض مُستخدمي OpenAI الآخرين.
اليوم هي المرة الأولى التي وعدت فيها OpenAI بإحضار وضع الصوت لمجموعة واسعة من المستخدمين. إليك ما تحتاج إلى معرفته عن وضع ChatGPT Advanced Voice الجديد.
ماذا يمكن لـ ChatGPT Advanced Voice فعله؟
على الرغم من أن ChatGPT يقدم حاليًا وضعًا صوتيًا للمُستخدمين المدفوعين، إلا أن تفاعلاته قد تكون مُربكة. في التطبيق، على سبيل المثال، لا يمكنك مقاطعة ردود النموذج المطولة غالبًا بصوتك، فقط بنقرة على الشاشة.
يعمل الإصدار الجديد على إصلاح ذلك، ويَعد أيضًا بتعديل ردوده على أساس العاطفة التي يشعر بها من صوتك. كما هو الحال مع الإصدارات الأخرى من ChatGPT، يمكن للمُستخدمين تخصيص وضع الصوت عن طريق مُطالبة النموذج بتذكر الحقائق عن أنفسهم.
كما حسّن الوضع الجديد نطق الكلمات باللغات غير الإنجليزية.
يضيف التحديث أيضًا أصواتًا جديدة. بعد وقت قصير من إطلاق GPT-4o، تعرضت OpenAI لانتقادات بسبب التشابه بين الصوت الأنثوي في مقاطع الفيديو التجريبية التي تحمل اسم Sky وصوت سكارليت جوهانسون، ثم أزالت OpenAI الصوت.
أطلقت الآن 5 أصوات جديدة، باسم Arbor وMaple وSol وSpruce وVale، والتي ستكون مُتاحة في كلٍ من أوضاع الصوت القياسية والمتقدمة، وذلك باستخدام مُمثلين صوتيين مُحترفين من جميع أنحاء العالم.
من يمكنه الوصول إليه ومتى؟
في الوقت الحالي، تطرح OpenAI الوصول إلى Advanced Voice Mode لمُستخدمي Plus، الذين يدفعون 20 دولارًا شهريًا للإصدار المدفوع، ومُستخدمي Team، الذين يدفعون 30 دولارًا شهريًا ولديهم حدود رسائل أعلى.
المجموعة التالية التي ستحصل على حق الوصول ستكون تلك الموجودة في طبقات Enterprise وEdu. ومع ذلك، فإن التوقيت الدقيق غير واضح، ولا توجد خطة فورية لإصدار Advanced Voice Mode للمُستخدمين المجانيين.
هل وضع ChatGPT Advanced Voice آمن تمامًا؟
كما لاحظت الشركة عند الإصدار الأولي في يوليو وأكدت مرة أخرى هذا الأسبوع، تم اختبار أمان ChatGPT Advanced Voice من قبل خبراء خارجيين يتحدثون ما مجموعه 45 لغة مُختلفة، ويمثلون 29 منطقة جغرافية مُختلفة.
وتوضح بطاقة نظام GPT-4o كيف يتعامل النموذج مع قضايا مثل توليد خطاب عنيف أو مُثير، أو تقليد الأصوات دون موافقتهم، أو توليد مُحتوى محمي بحقوق الملكية.
ومع ذلك، فإن نماذج OpenAI ليست مفتوحة المصدر. وبالمقارنة مع مثل هذه النماذج، التي تتمتع بشفافية أكبر بشأن بيانات التدريب، فإن نماذج OpenAI مُغلقة المصدر يصعب على الباحثين المُستقلين تقييمها من منظور السلامة والتحيُّز والضرر.
?xml>