أخبار عاجلة

هلوسة الذكاء الاصطناعي .. هل هناك حل نهائي لها؟

هلوسة الذكاء الاصطناعي .. هل هناك حل نهائي لها؟
هلوسة الذكاء الاصطناعي .. هل هناك حل نهائي لها؟

يشهد مجال الذكاء الاصطناعي تطورًا متسارعًا، ومع ذلك مازالت مشكلة الهلوسة التي تعانيها النماذج اللغوية الكبيرة تشكل تحديًا كبيرًا. وفي هذا السياق، طور باحثون من جامعة محمد بن زايد للذكاء الاصطناعي طريقة جديدة لكشف هلوسة النماذج اللغوية الكبيرة، مما يمهد الطريق لتطوير نماذج أكثر دقة وموثوقية.

ولكن ما أسباب هلوسة النماذج اللغوية، وكيف تعمل الطريقة الجديدة التي طورها الباحثون على الحد من هذه المشكلة، وما تأثير ذلك في تشكيل علاقتنا بالذكاء الاصطناعي مستقبلًا؟

ما أسباب هلوسة النماذج اللغوية الكبيرة؟ 

هلوسة الذكاء الاصطناعي .. هل هناك حل نهائي لها؟

تعتمد النماذج اللغوية الكبيرة على الاحتمالات لتوليد النصوص، مما يجعلها عرضة لارتكاب الأخطاء واختلاق المعلومات، وتُعرف هذه الظاهرة، باسم (الهلوسة)، وتشكل تحديًا كبيرًا أمام الاعتماد الكامل على هذه النماذج.

وهناك عدة أسباب وراء هذه الظاهرة، منها:

  • التحيز في البيانات: قد تحتوي البيانات المستخدمة لتدريب النموذج على تحيزات، مما يؤدي إلى أن يتعلم النموذج توليد نصوص تعكس هذه التحيزات.
  • جودة البيانات: إذا كانت البيانات التدريبية تحتوي على أخطاء أو تناقضات، فمن المحتمل أن ينتج النموذج أيضًا نصوصًا تحتوي على أخطاء.
  • تعقيد النموذج: كلما زاد تعقيد النموذج، زادت صعوبة فهم كيفية وصوله إلى نتائجه، مما يجعل من الصعب تحديد الأسباب الكامنة وراء الهلوسات.
  • الاعتماد على الإحصاءات: تعتمد النماذج اللغوية الكبيرة على الإحصاءات لتوليد النصوص، ولكنها قد تفشل في فهم المعنى الحقيقي للكلمات والعبارات، مما يؤدي إلى إنتاج نصوص غير منطقية.
  • طريقة التدريب: تُدرب النماذج اللغوية الكبيرة غالبًا على إنتاج نصوص سلسة ومقنعة، دون التركيز بشكل كاف في دقة المعلومات.
  • نقص البيانات الواقعية: قد لا تحتوي البيانات التدريبية على أمثلة كافية لحالات نادرة أو معقدة، مما يجعل النموذج عاجزًا عن التعامل معها بشكل صحيح. 

هل يمكن القضاء تمامًا على هلوسة النماذج اللغوية الكبيرة؟ 

 

يؤكد أرتيم شيلمانوف، الباحث في جامعة محمد بن زايد للذكاء الاصطناعي، أن القضاء التام على هلوسة النماذج اللغوية قد يكون هدفًا بعيد المنال. ويشير إلى أن بنية هذه النماذج وطرق تدريبها تجعل من الصعب، إن لم يكن من المستحيل، توليد معلومات غير دقيقة في بعض الحالات. ومع ذلك، يسعى الباحثون جاهدين إلى تطوير تقنيات للحد من هذه المشكلة.

وشارك شيلمانوف مع زملائه في جامعة محمد بن زايد للذكاء الاصطناعي ومؤسسات أخرى في إعداد دراسة بحثية تقدم طريقة جديدة للكشف عن الهلوسة في النماذج اللغوية الكبيرة عبر قياس مدى ثقة النموذج بإجاباته، وقد لاقت اهتمامًا كبيرًا في المجتمع العلمي، إذ قُدمت هذه الدراسة في الاجتماع السنوي الـ 62 لجمعية اللغويات الحاسوبية في بانكوك.

وفي هذا الصدد، قال مكسيم بانوف، الأستاذ المساعد في قسم تعلم الآلة في جامعة محمد بن زايد للذكاء الاصطناعي، وأحد المشاركين في إعداد الدراسة: “يتطلع المطورون إلى بناء نماذج لغوية كبيرة مثالية لا تخطئ أبدًا، ولكن الأمر ليس بهذه البساطة، لأن أفضل النماذج سترتكب أخطاء حتمًا، وطريقتنا قادرة على الكشف عن هذه الأخطاء”.

كيف تكتشف الطريقة الجديدة هلوسة نماذج الذكاء الاصطناعي؟

تخيل أن النموذج اللغوي الكبير هو كاتب روائي ذكي، ولكنه لا يخترع قصصًا من العدم. بدلًا من ذلك، ينشئ النصوص الجديدة من كل البيانات التي دّرب عليها بناءً على احتمالات إحصائية.

فكلما طرحت سؤالًا، يقوم النموذج بحساب الاحتمالات لكل كلمة ممكنة، ثم يختار الكلمة التي يراها الأكثر احتمالًا لتكون صحيحة بناءً على تفاصيل السؤال وطريقة تدريب النموذج وضبطه.

وتنشئ النماذج اللغوية الكبيرة نصوصًا على مستوى العنصر اللغوي، الذي قد يكون كلمة أو جزء من كلمة أو علامة ترقيم، ويتنبأ النموذج بالعنصر اللغوي التالي الأرجح في السلسلة عن طريق حساب الاحتمالات لكل عنصر مع تقدم عملية إنشاء النص، وترتفع وهذه الاحتمالات بالنسبة لبعض العناصر اللغوية وتنخفض بالنسبة لبعضها، وهي تعطي فكرة عن مستوى ثقة النموذج بالنص الذي ينشئه.

وتعتمد طريقة الباحثين على هذا المقياس الداخلي لدرجة عدم اليقين على مستوى العنصر اللغوي للكشف عن هلوسة النموذج، إذ يمكن تحديد أجزاء النص التي تتدنى مستوى ثقة النموذج اللغوي الكبير بها في واجهة المستخدم.

ويطلق الباحثون على طريقتهم اسم (الاحتمال الشرطي للمعلومة)، وهي أول طريقة تستخدم قياس درجات عدم اليقين بالاعتماد فقط على النموذج اللغوي الكبير الذي يولد النص.

باختصار، تخيل أن النموذج اللغوي الكبير هو شخص يحكي لك قصة، وعندما يصل إلى جزء من القصة يشعر فيه بعدم اليقين مما يقوله، فإن صوته يرتفع قليلًا أو يتردد، وطريقة الباحثين الجديدة هي ما تمكننا من تحديد هذه اللحظات بالضبط، حين يشعر النموذج بعدم الثقة بالمعلومات التي يقدمها.

يوجد طرق أخرى للكشف عن هلوسة نماذج الذكاء الاصطناعي، مثل التحقق الآلي من الحقائق عن طريق البحث عن مجموعة بيانات خارجية أو في نموذج لغوي آخر. ولكن هذا يتطلب قدرًا كبيرًا من العمليات الحسابية كما يؤكد بريسلاف ناكوف، رئيس قسم معالجة اللغة الطبيعية في جامعة محمد بن زايد للذكاء الاصطناعي، وأحد الباحثين المشاركين في إعداد الدراسة.

" frameborder="0">

ويوضح ناكوف أن طريقة الاحتمال الشرطي للمعلومة تتميز بالكفاءة لأن النماذج اللغوية الكبيرة نفسها تعتمد على حساب الاحتمالات لكل عنصر لغوي، والطريقة الجديدة تستخدم فقط الاحتمالات الداخلية التي يحسبها النموذج في جميع الأحوال.

ومع ذلك هذه الطريقة لا تؤكد صحة المعلومات بشكل قاطع، ولكنها تساعدنا في تحديد الأجزاء التي قد تكون غير موثوقة في النصوص التي تولدها النماذج اللغوية وتحتاج إلى تدقيق، ومن ثم، يمكن للمستخدمين الاعتماد على هذه النصوص بنحو أفضل.

ويقول بانوف: “نحن نسعى إلى تحديد أجزاء النص التي تتطلب التحقق من صحتها بحيث يعرف المستخدم باحتمال وجود خطأ في أحد المقاطع. ومن ثم يمكن استخدام هذه النماذج بنحو أكثر أمانًا وفعالية”.

تحديات وتطورات مستقبلية:

لا تقتصر الطريقة التي يقترحها الباحثون على تحديد الحالات التي يتدنى فيها مستوى ثقة النماذج اللغوية الكبيرة بالمعلومة، لأن هناك أنواعًا مختلفة من عدم اليقين في النماذج اللغوية الكبيرة.

فقد يكون النموذج غير متأكد من المرادف الذي يجب استخدامه، أو الترتيب الأفضل للفقرات، وهذه الأنواع من عدم اليقين لا تشير بالضرورة إلى معلومات غير دقيقة.

وللتغلب على هذه التحديات، استخدم الباحثون تقنية تسمى (استدلال اللغة الطبيعية)، وتسمح هذه التقنية لهم بتحديد نوع عدم اليقين الذي يعانيه النموذج. فإذا كان عدم اليقين ناتجًا عن اختيار المرادفات أو ترتيب الجمل، يمكن تجاهله. أما إذا كان مرتبطًا بصحة المعلومة نفسها، فيجب الانتباه إليه. وفي هذا الصدد، يقول شيلمانوف: “حاولنا تحسين توزيع الاحتمالات عن طريق إزالة هذه الحالات غير المهمة”.

نتائج مبشرة:

قارن الباحثون نتائج طريقتهم الجديدة بطرق أخرى لقياس عدم اليقين في النماذج اللغوية الكبيرة، وذلك باستخدام مجموعة من السير الذاتية التي أُنشئت آليًا، وتحتوي على هلوسة.

وأظهرت النتائج تفوق طريقة الاحتمال الشرطي للمعلومة في تحديد الهلوسة على الطرق الأخرى في سبعة نماذج لغوية كبيرة، من بينها: GPT-3.5-turbo وGPT-4 من شركة (OpenAI)، وذلك في أربع لغات وهي: العربية والصينية والإنجليزية والروسية.

وتعتمد طريقة الاحتمال الشرطي للمعلومة على بحث سابق أجراه شيلمانوف وبانوف وآخرون تحت عنوان (كاشف الكذب في النماذج اللغوية)، يوفر إطارًا لقياس درجة عدم اليقين في النماذج اللغوية، وهو متاح للمطورين والباحثين على شكل مكتبة تتضمن نصًا برمجيًا لقياس درجات عدم اليقين يمكن إدماجه في النماذج اللغوية الكبيرة.

ما أهمية هذا الاكتشاف؟

تفتح هذه الطريقة آفاقًا جديدة في مجال تطوير النماذج اللغوية الكبيرة، فهي تسمح بتحديد المناطق التي تتطلب المزيد من التحقق، مما يزيد من موثوقية المعلومات التي تقدمها هذه النماذج. ومن ثم يمكننا استخدامها بنحو أكثر أمانًا وفعالية في العديد من التطبيقات، من توليد النصوص إلى ترجمة اللغات.

الخلاصة:

تُعدّ مشكلة الهلوسة في النماذج اللغوية الكبيرة تحديًا كبيرًا، ولكن التطورات الأخيرة في مجال الذكاء الاصطناعي توفر لنا أدوات جديدة للكشف عن هذه الأخطاء وتحسين جودة النصوص التي تنتجها هذه النماذج. ومع استمرار البحث والتطوير، يمكننا توقع المزيد من التقدم في هذا المجال.

" frameborder="0">

نسخ الرابط تم نسخ الرابط

اشترك فى النشرة البريدية لتحصل على اهم الاخبار بمجرد نشرها

تابعنا على مواقع التواصل الاجتماعى

السابق أسعار الدواجن والبيض في مصر اليوم الأحد
التالى الأورومتوسطى لحقوق الإنسان: إسرائيل تنتهك يوميا القانون الدولي الإنساني