“خطأ فادح في الـChatGPT”.. باحث سوري يكشف خللاً في عمل تطبيقات الذكاء الصنعي
قد يبدو الأمر صادماً للبعض، إذ كيف لهم أن يصدقوا أن تقنيات الذكاء الصنعي فيها أي خلل أو خطأ، أو أنها قد تعطي معلومات خاطئة وغير دقيقة، خاصة وأن العديد من الأشخاص يستخدموها للحصول على معلومات وأفكار وللمساعدة بالكثير من المهام.
هذا ما تبين للباحث الدكتور مروان الراعي، من جامعة دمشق كلية الفيزياء، عند استخدامه لأحد تطبيقات الذكاء الصنعي الـ”ChatGPT”، حيث كان يعمل على تحكيم إحدى المقالات العلمية الخارجية، الأمر الذي تطلب منه سؤال هذا التطبيق عن قيمة معينة تتعلق بطاقة النسج، أي الطاقة التي يتفتت فيها النسيج، لتكون المفاجأة بالرقم الذي أعطاء الذكاء الصنعي.
وفي حديثه مع “البعث ميديا”، أوضح الراعي أن النتيجة التي ظهرت كانت (8.5) ميغا فولط إلكترون، وهذا الرقم يعبر عن الطاقة الموجودة بالتفاعلات النووية، وعلى اعتبار أنه – كفيزيائي – على دراية بالأمور الحيوية وبالفيزياء أيضاً فقد كانت النتيجة صادمة بالنسبة له.
وهنا نوه دكتور الجمل المعقدة أن النسخة التي كان يستخدمها هي نسخة مخصصة للتحكيم، وتعطى للأشخاص الذين لديهم وصول كمحرر أو كمحكم وهي تابعة لأحد دور النشر، أي أنها نظامية تستخدم في التحكيم، وليست كالنسخ المتداولة.
الراعي أشار إلى أنه لو أعطي هذا الرقم لأي شخص أخر لربما كان أخذ به واعتبر أنه من مصدر موثوق، إلا أن معرفته بطاقة النسج ولما يرمز إليه الرقم الذي أظهره الـ”ChatGPT”، جعله يكتشف الخطأ، موضحاً أن طاقة تفكك النسيج هي أصغر بملايين المرات من النتيجة التي حصل عليها، والتي لا تتجاوز الأجزاء من الإلكترون فولط.
ما فعله الدكتور الراعي أنه باشر بكتابة مقال علمي بشكل تفصيلي، استهله بتفنيد الخطأ الحاصل على مرحلتين، الأولى عرض فيها ما أعطاه الـ”ChatGPT” عبر لقطة شاشة تظهر السؤال الذي كان حول طاقة نسيج معين والإجابة، ثم بين ما يعرفه الفيزيائيون حول طاقة الارتباط النووي، المعلومة التي لا يمكن لأحد انتقادها أو التشكيك بها، وكذلك طاقة ارتباط النسج.
الباحث الراعي خلص إلى نتيجته بوجود خطأ في استخدام هذه التقنية، لينشر بحثه في مجلة “Oral Oncology Reports” التابعة لدار نشر “Elsevier” الهولدنية، تحت عنوان “خطأ فادح في استخدام الـ ChatGPT في عمليات تقييم المقالات العلمية”، شارحاً بأنه لا يمكن الاعتماد على هذا التطبيق لتقييم المقالات العلمية، وهذه الورقة العلمية هي المقالة التاسعة الأكثر قراءة في المجلة، على الرغم من كثرة المقالات حول الذكاء الصنعي فيها.
وفي هذا السياق، لفت الراعي إلى أنه على الرغم من أن اختصاصه له علاقة بالذكاء الاصطناعي إلا أن هناك حدوداً للدفاع عنه والمدح فيه، فهذه التطبيقات هي نتاج البشر لذا من غير الممكن أن تكون أفضل منها.
كما بين أن هناك خطأً شائعاً بين الناس، بالاعتقاد أن الذكاء الصنعي ظهر عام 2023 مع بداية استخدام ChatGPT وغيره من التطبيقات، التي تشكل جزءاً لا يتجاوز 1% من هذا المجال، فما يعنيه الذكاء الصنعي، الذي يعود لأكثر من 100 عام، هو قدرة الآلة على العمل وإعطاء النتائج التي يمكن للبشر تنفيذها، فإذا علّمنا الحاسب ولقمناه بالخوارزميات والأوامر المختلفة سيكون قادراً على القيام بالأعمال المطلوبة ولكن ضمن حدود معينة.
البعث ميديا – رغد خضور