لهذه الأسباب لاتثق بالذكاء الاصطناعي التوليدي
- KDTS
- قبل يومين
- 3 دقيقة قراءة

بارومتر العراق/ كتب ضياء ثابت خبير اليونسكو للذكاء الاصطناعي-
شهد العالم خلال السنوات الثلاث الأخيرة طفرة هائلة في تطوير تقنيات الذكاء الاصطناعي التوليدي، وبالأخص النماذج اللغوية الضخمة التي باتت تؤدي أدوارًا معقّدة في الكتابة، الترجمة، التحليل، بل وحتى في صناعة القرار. ورغم ما تقدمه هذه الأدوات من إمكانات استثنائية في تسريع العمل وتوفير مصادر معرفية آنية، وحل المسائل المعقدة وأداء ادوار وظيفية مطولة بسرع فائقة، فإن الاعتماد الكلي عليها دون ضوابط أو تحقق من صحة المخرجات ينطوي على مجموعة من المخاطر التي لا يمكن إغفالها.
إشكالية الدقة و”الهلوسة” المعرفية
من أبرز المخاطر المرتبطة بالذكاء الاصطناعي التوليدي ظاهرة الهلوسة، حيث يقوم الذكاء الاصطناعي بتوليد إجابات مثخنة بمعلومات غير صحيحة لكنها تصاغ بطريقة تبدو دقيقة وموثوقة ومبنية على جزء من حقائق وأجزاء اخرى هلوسات وأكاذيب يختلقها الذكاء الاصطناعي. هذه الإشكالية لا تقتصر على الأخطاء البسيطة، بل قد تمتد إلى خلق سرديات أو استنتاجات لا أساس لها من الصحة في الواقع، مما قد يؤدي إلى تضليل المستخدمين إذا لم يتعاملوا معها بحذر وتدقيق علمي ومنهجي.
الانحراف عن النسق العلمي والمعرفي
رغم اعتماد الذكاء الاصطناعي التوليدي على كميات مهولة من النصوص والبيانات في التدريب الالي، إلا أن نماذج وكلاء الذكاء الاصطناعي قد تخلط بين المناهج أو تسقط مفاهيم أكاديمية خارج سياقها، فينتج خطابًا علميًا أو فكريًا يعاني من انحرافات عن النسق المنهجي رغم جماله وتناسقه. هذا الأمر يطرح تحديًا خاصًا للباحثين والأكاديميين الذين قد يعتمدون على هذه الأدوات في انتاج أبحاثهم ودراساتهم دون مراجعة دقيقة، بما يقوّض من مصداقية الإنتاج العلمي والمعرفي.
قيود التحديث وحدود البيانات
غالبًا ما تُقرّ الأنظمة التوليدية بعدم قدرتها على مواكبة المستجدات في الزمن الفعلي، حيث تستند في معظم الأحيان إلى بيانات تعود إلى عام 2024 أو ما قبله. هذا القصور يجعلها غير قادرة على معالجة التطورات السياسية، الاقتصادية، الاجتماعية، والعلمية الطارئة بدقة، مما يفرض على المستخدم ضرورة الرجوع إلى المصادر الحية والحديثة قبل اتخاذ أي قرارات جوهرية.
كما أن غالبية تطبيقات الذكاء الاصطناعي تعجز من الولوج إلى منصات التواصل الاجتماعي والى المواقع المحمية مما يجعلها غير قادر على تعقب المتغيرات العامة وإعطاء راي رصين في القضايا العامة.
دمج السياقات وتشويش الخط الزمني للمعلومات
من المخاطر الشائعة الأخرى لدى الذكاء الاصطناعي التوليدي، أن يقوم بدمج أحداث أو بيانات متباينة ضمن سياق واحد وإن تنوعت الجغرافية الرابطة للحدث، بحيث يفقد المستخدم القدرة على تمييز التسلسل الزمني أو الترابط الواقعي بين الوقائع والأحداث. هذا التشويش الزمني والمعرفي يهدد بخلق فهم مشوّه للوقائع، خاصة في القضايا التاريخية أو السياسية الحساسة.
تضمين بيانات المستخدمين في المسارات التوليدية
من المخاطر الأخلاقية بالغة الأهمية التي قد تنجم عن الاعتماد الكلي على الذكاء الاصطناعي التوليدي، هو أن هذه النماذج قد تستند أحيانًا إلى مدخلات المستخدمين وتعيد دمجها في إجابات لاحقة. ورغم أن الشركات المطوّرة تؤكد تطبيق سياسات صارمة لحماية الخصوصية، إلا أن المخاوف تبقى قائمة بشأن إمكانية استثمار أو إعادة توظيف معلومات شخصية أو حساسة بطريقة غير مقصودة، وهو ما يفتح بابًا واسعًا للتساؤل حول الأمان المعلوماتي، خصوصية بيانات المستخدمين، وحدود الملكية الفكرية.
تأثير الاعتماد المفرط على الذكاء الاصطناعي
الانبهار بقدرات الذكاء الاصطناعي قاد منذ عام تقريبا إلى تراجع الاعتماد على الخبرة البشرية المتخصصة، وبالتالي سيسهم بحلول ٢٠٢٨ بإضعاف التفكير النقدي والاستقلالية الذهنية للمستخدمين. وإذا ما جرى التعامل مع هذه الأدوات باعتبارها بديلًا للإنسان، فإننا نواجه خطر إنتاج أجيال من “المستهلكين المعرفيين المشوهين ذهنيا” بدلًا من “المنتجين النقديين” للمعرفة.
إن الذكاء الاصطناعي التوليدي يمثل أداة رائدة ومكملة للعمل البشري، لكنه لا يمكن أن يحل محل الخبرة المتخصصة أو النقد العلمي الصارم. فبينما يختصر الوقت ويُيسّر الوصول إلى المعلومات، فإنه في الوقت نفسه يطرح تحديات حقيقية تتعلق بالدقة، والموثوقية، والخصوصية، والنسق العلمي. ومن ثم، فإن الحكمة تكمن في التعامل معه بوصفه مساعدًا معرفيًا لا أكثر، مع ضرورة ترسيخ ثقافة التحقق المستمر من المعلومات والرجوع إلى المصادر الأصلية والخبراء المتخصصين قبل البناء على مخرجاته أو تحويلها إلى قرارات مصيرية.
انتهى.