العمليات الانتخابية وادوار الذكاء الاصطناعي
- KDTS
- 29 يوليو
- 3 دقيقة قراءة

بارومتر العراقي/ كتب ضياء ثابت خبير اليونسكو -
يدور في ذهن الكثيرين اليوم سؤال مهم، (هل يمكن للذكاء الاصطناعي ان يؤثر على العمليات الانتخابية؟). في عصر التحوّل الرقمي، أصبحت التكنولوجيا لاعبًا رئيسيًا في تشكيل المشهد الانتخابي. ومع بروز تقنيات الذكاء الاصطناعي وتطور أدوات تحليل البيانات، توسعت قدرات الجهات الفاعلة—سواء الرسمية أو غير الرسمية—في التأثير على سلوك الناخبين، إدارة الحملات، وحتى التلاعب بنتائج الانتخابات. وبينما توفر هذه التقنيات فرصًا هائلة لتحسين الشفافية والكفاءة، فإنها في الوقت ذاته تفتح أبوابًا جديدة أمام التدخل والتلاعب كما حصل في نماذج دولية أبرزها الانتخابات الأمريكية الأخيرة، اذ تشهد بضع محاكم الولايات المتحدة قضايا رفعت بعناوين تلاعب رقمي بالعمليات الانتخابية.
هنالك ثلاثة ادوار يلعبها الذكاء الاصطناعي عبر مستويات العمليات الانتخابية ( قبل- اثناء- بعد) الانتخابات. أولها، التحليل والتأثير السلوكي عبر الفضاء الرقمي. في هذه المرحلة يُستخدم الذكاء الاصطناعي لتحليل توجهات الرأي العام عبر وسائل التواصل الاجتماعي ومحركات البحث، وعبر أدوات الذكاء الاصطناعي لتحليل المشاعر (Sentiment Analysis)، والنمذجة التنبؤية (Predictive Modeling).
عندما تصمم الخوارزميات فإنها تكيف لتتبع السلوك الرقمي للمستخدمين. او من خلال أدوات الاستهداف المجهري (Microtargeting). وكذلك روبوتات الذكاء الاصطناعي (Chatbots) التي توظف لنشر الرسائل السياسية ضمن مساقات الحملات الدعائية للانتخابات بشكل ممنهج وعبر كل أنماطها ومراحلها الزمنية.
وفي هذا الطور يمكن ان تمارس عمليات تضليل الناخبين من خلال المعلومات والأخبار المزيفة والمشوهة التي تُصمم خوارزميًا لاستهداف فئات محددة. او ان يتم التلاعب عبر خوارزميات منصات التواصل الاجتماعي لإبراز سردية معينة دون غيرها، فننتقل إلى نمط (الفقاعات الرقمية) التي تغلف وعي المستخدم وتنتقل به من محيط إلى آخر في داخل عالمه الرقمي.

اما الدور الثاني للذكاء الاصطناعي، فيمارس اثناء مراحل (التسجيل البايومتري، المراقبة، التحقق، ونقل النتائج) الانتخابية عبر اجهزة التحقق البيومتري (Biometric Verification Devices - BVDs). وفي هذه المرحلة يُستخدم الذكاء الاصطناعي لتحسين دقة التعرف على البصمة أو الوجه، ومطابقة المعلومات للناخبين والمرشحين عبر نوع من الخوارزميات المسيطر عليها. لكن هذه الخوارزميات قد تتعرض لتلاعب برمجي يسمح بتجاوز عملية التعرف الرقمي على هوية الناخب وعبور هذه المرحلة بشكل اعتيادي دون ان يلاحظه النظام او الموظف المسؤول عن هذه الاجهزة بمراحلها.
او قد تتم عملية التأثير عبر أجهزة عد الأصوات (Vote Counting Machines - VCMs). فمن الممكن برمجة خوارزميات العد الإلكتروني للتلاعب بالنتائج، أو اختراقها عبر واجهات داخلية، خاصة إذا لم تكن معزولة عن الإنترنت. او عبر برمجيات خبيثة قادرة على العمل في بيئات رقمية بيانية معزولة عن الإنترنت.
وهنالك أنظمة نقل البيانات (Data Transmission Devices) التي تعمل بخوارزميات الضغط والتشفير (Compression/Encryption Algorithms) وتُستخدم لضمان أمان النقل، لكن قد تُستهدف بنماذج هجوم تعتمد على الذكاء الاصطناعي مثل:
الهجوم بالحقن البياني (Data Injection)
التحايل على الشبكات الافتراضية (VPN Spoofing)
اما الدور الثالث للتداخل والتأثير عبر الذكاء الاصطناعي، فيتم في مرحلة تحليل النتائج والتلاعب السردي، تُستخدم أدوات الذكاء الاصطناعي في تحليل أنماط التصويت، واستخراج مؤشرات قد تُستخدم سياسياً لتوجيه سرديات عن “تزوير” أو “إرادة جماعية” ضاغطة واقناع جماهير الناخبين بان اصواتهم استغلت بشكل مخالف للأنظمة والقوانين الخ.
وتتم غالبا عبر إنشاء روايات مزيفة مدعومة ببيانات جزئية يتم إخراجها بشكل مُضلل. او باستخدام الذكاء الاصطناعي في محاكاة شخصيات عامة أو صنع فيديوهات مزيفة (InDeepfake) لتأجيج الرأي العام.
الترابط الخوارزمي مع قواعد البيانات العامة والخاصة
تعمل خوارزميات الذكاء الاصطناعي على دمج وتحليل بيانات متعددة المصدر، كقواعد البيانات العامة (سجلات الناخبين، قواعد بيانات السجل الإحصائي، بيانات منصات التواصل الاجتماعية المفتوحة، او بيانات محطات ومراكز الاقتراع).
او لربما عبر قواعد البيانات الخاصة (كبيانات شركات الإعلان الرقمي، بيانات سلوك الناخبين والمرشحين، او قواعد بيانات تطبيقات الهاتف المحمول).
او الخطورة تكمن في قدرة الذكاء الاصطناعي على الربط بين هذه القواعد، وتكوين نماذج دقيقة لكل فرد (Individual Profiling) او (Digital Pairing ) القرين الرقمي، ما يسمح بالتأثير على الناخبين من خلال اجهزتهم وتطبيقاتهم الرقمية بشكل غير مباشر وخفي عبر تقنيات مثل (النمذجة التنبؤية للسلوك التصويتي، الاستهداف العاطفي بناءً على الميول الشخصية، تحليل شبكات العلاقات لتحديد “قادة الرأي” ضمن المجموعات).
الإطار القانوني والتقني لحوكمة الذكاء الاصطناعي في الانتخابات
لا تزال غالبية الدول تفتقر إلى أطر قانونية صريحة تنظم استخدام الذكاء الاصطناعي في المجال الانتخابي، خصوصًا فيما يتعلق بـ:
حماية بيانات الناخبين.
الإفصاح عن مصادر المحتوى الآلي.
الرقابة على أنظمة العدّ والتحقق.
التتبع والمراقبة للخوارزميات.
تشفير شامل للبيانات أثناء النقل والتخزين.
تدقيق خوارزمي مستقل قبل الانتخابات.
استخدام شبكات منع الاختراق (IDS/IPS) مدعومة بالذكاء الاصطناعي (الأخلاقي المؤتمن المسيطر عليه).
وتبقى الاطر القانونية الدولية تحت عناوين مباديء توجيهية او توصيات خاصة معتمدة من قبل المجتمع الدولي عبر المنظمات الدولية كما هو الحال مع مبادي اليونسكو التوجيهية للحوكمة الرقمية والدماء الاصطناعي، او التوصية الخامسة لأخلاقيات الذكاء الاصطناعي لليونسكو.
انتهى.