نحن نعلم أن شركة أبل تستعد للإعلان عن العديد من المستجدات ذات الصلة بالذكاء الإصطناعي في مؤتمرها السنوي للمطورين WWDC 2024 في شهر يونيو المقبل، ولكننا لا نعرف بالضبط حتى الآن ما الذي ستتضمنه هذه الإعلانات. يُعد تحسين المساعد الرقمي Siri إحدى الأولويات الرئيسية لشركة أبل، حيث يشكو مستخدمو iPhone بانتظام من الأداء المتواضع لهذا المساعد الصوتي. ومع ذلك، فقد نشر باحثو الذكاء الاصطناعي في شركة أبل هذا الأسبوع ورقة بحثية قد تلقي ضوءًا جديدًا على خطط أبل للذكاء الاصطناعي من أجل Siri.
تقدم هذه الورقة البحثية الجديدة Reference Resolution As Language Modeling المعروف إختصارًا بإسم ReALM، وهو نظام ذكاء اصطناعي تفاعلي مع نهج جديد لتحسين الدقة المرجعية. أمل شركة أبل هو أن يتمكن ReALM من تحسين قدرة Siri على فهم السياق في المحادثات ومعالجة المحتوى الذي يظهر على الشاشة وإكتشاف الأنشطة التي تتم في الخلفية.
إن التعامل مع تحليل المرجع بإعتباره مشكلة في النموذج اللغوي ينفصل عن الأساليب التقليدية التي تركز على سياق المحادثة. يمكن للذكاء الإصطناعي ReaLM تحويل عمليات المحادثة والعمليات التي تظهر على الشاشة والخلفية إلى تنسيق نصي يمكن معالجته بعد ذلك بواسطة النماذج اللغوية الكبيرة، مما يعزز قدرات الفهم الدلالي لهذا الذكاء الإصطناعي.
قام الباحثون بمقارنة ReALM مع GPT-3.5 و GPT-4، النماذج اللغوية الكبيرة من شركة OpenAI والتي تعمل حاليًا على تشغيل ChatGPT المجاني و ChatGPT Plus المدفوع. في ورقتهم البحثية، قال الباحثون إن أصغر نموذج لديهم كان أداؤه مماثلاً لأداء GPT-4، في حين كان أداء نماذجهم الأكبر أفضل.
تسرد الورقة البحثية أربعة أحجام من النموذج اللغوي ReALM، والتي تشمل ReALM: ReALM-80M و ReALM-250M و ReALM-1B و ReALM-3B. يشير ” M ” و ” B ” إلى عدد المعلمات بالملايين والمليارات، على التوالي. وعلى سبيل المقارنة، يحتوي النموذج اللغوي GPT-3.5 على 175 مليار معلمة بينما يضم GPT-4 حوالي 1.5 تريليون معلمة.
لقد أظهرنا أن ReaLM يتفوق في الأداء على النماذج اللغوية الحالية، ويقدم نفس أداء النموذج اللغوي الكبير الأكثر تقدمًا حاليًا، وهو GPT-4، على الرغم من أنه يتكون من معلمات أقل بكثير .
ولم تؤكد شركة أبل بعد ما إذا كان هذا البحث سيلعب دورًا في نظام iOS 18 أو أحدث أجهزتها.