علوم وتكنولوجيا

يحذر الباحثون من أن الوقت ينفد أمام المنظمين لمعالجة تهديد الذكاء الاصطناعي قبل الانتخابات العامة | أخبار العلوم والتكنولوجيا



حذر باحثون من أن الوقت ينفد أمام المنظمين لمعالجة التهديدات التي يشكلها الذكاء الاصطناعي على العملية الديمقراطية قبل انتخابات يوليو.

ومع ذلك، قالوا إن فكرة التزييف العميق التي تؤثر على الانتخابات لا ينبغي المبالغة فيها لأنه لا يوجد دليل واضح على تأثر نتيجة الانتخابات بالذكاء الاصطناعي.

وفي تقرير جديد نشره مركز أبحاث معهد آلان تورينج، قال الباحثون إن هناك علامات مبكرة على الضرر الذي يلحق بالنظام الديمقراطي من المحتوى الناتج عن الذكاء الاصطناعي.

كانت هناك موجة من المواد التي تدعي أنها تصور السياسيين في الأشهر الأخيرة.

صادق خان، عمدة لندن، قال إن الصوت المزيف الذي تم إنشاؤه يبدو كما لو كان يدلي بتصريحات تحريضية قبل يوم الهدنة كاد أن يتسبب في “اضطراب خطير”.

الصوت الذي تم إنشاؤه بواسطة الذكاء الاصطناعي الرئيس الأمريكي جو بايدن يبدو تشجيع المؤيدين على عدم التصويت في نيو هامبشاير الانتخابات التمهيدية في بداية هذا العام.

وقال سام ستوكويل، الباحث المشارك في معهد آلان تورينج والمؤلف الرئيسي للتقرير، إن المضايقات عبر الإنترنت للشخصيات العامة التي تتعرض لهجمات التزييف العميق قد تدفع البعض إلى تجنب الانخراط في المنتديات عبر الإنترنت.

وقال: “إن التحدي المتمثل في التمييز بين المحتوى المنشأ بواسطة الذكاء الاصطناعي والمحتوى الأصلي يطرح جميع أنواع المشكلات… إنه يسمح للجهات الفاعلة السيئة باستغلال حالة عدم اليقين هذه من خلال رفض المحتوى المزيف العميق باعتباره ادعاءات، وهناك أخبار مزيفة، ويطرح مشاكل في التحقق من الحقائق”. وكل هذه الأمور تضر بالمبادئ الأساسية للديمقراطية”.

ودعا التقرير Ofcom، الجهة المنظمة لوسائل الإعلام، واللجنة الانتخابية، إلى إصدار إرشادات مشتركة وطلب اتفاقيات طوعية بشأن الاستخدام العادل للذكاء الاصطناعي من قبل الأحزاب السياسية في الحملات الانتخابية.

كما أوصت أيضًا بتوجيه وسائل الإعلام بشأن الإبلاغ عن المحتوى المزيف الناتج عن الذكاء الاصطناعي والتأكد من أن معلومات الناخبين تتضمن إرشادات حول كيفية اكتشاف المحتوى الناتج عن الذكاء الاصطناعي والمكان الذي يجب التوجه إليه للحصول على المشورة.

قال الدكتور كريستيان شرودر دي ويت، باحث ما بعد الدكتوراه في الذكاء الاصطناعي والأبحاث الأمنية في جامعة أكسفورد، إن الحلول لمعالجة تأثير التزييف العميق تشمل إضافة علامات مائية إلى المحتوى الناتج عن الذكاء الاصطناعي والحلول القائمة على المصدر، والتي تتضمن ربط الصورة والصورة. البيانات الوصفية معًا بطريقة توضح ما إذا كان قد تم التلاعب بالمعلومات الأصلية، لأن المالك وحده هو الذي يمكنه تعديل سجل المصدر.

اقرأ أكثر:
يقول خبراء الذكاء الاصطناعي إننا لسنا مستعدين لأكبر عام انتخابي في العالم

الذكاء الاصطناعي يشكل “تهديدا متزايدا للانتخابات العامة المقبلة”
الذكاء الاصطناعي “يساعد ميتا على مكافحة المعلومات المضللة في الانتخابات”

وأضاف ستوكويل أنه لا توجد “توجيهات أو توقعات واضحة لمنع استخدام الذكاء الاصطناعي لإنشاء معلومات انتخابية كاذبة أو مضللة” قبل أسابيع من الانتخابات العامة.

وقال “لهذا السبب من المهم للغاية أن يتصرف المنظمون بسرعة قبل فوات الأوان”.

وقال الدكتور ألكسندر بابوتا، مدير مركز التكنولوجيا والأمن الناشئة في معهد آلان تورينج: “بينما لا ينبغي لنا أن نبالغ في فكرة أن انتخاباتنا لم تعد آمنة، خاصة وأن الأدلة في جميع أنحاء العالم لا تظهر أي دليل واضح على وجود نتيجة”. لقد تغيرها الذكاء الاصطناعي، ومع ذلك يجب علينا أن نستخدم هذه اللحظة للعمل وجعل انتخاباتنا قادرة على الصمود في وجه التهديدات التي نواجهها.

“يمكن للمنظمين أن يفعلوا المزيد لمساعدة الجمهور على التمييز بين الحقيقة والخيال وضمان عدم فقدان الناخبين الثقة في العملية الديمقراطية.”

وقال متحدث باسم مفوضية الانتخابات: “نحن في وضع جيد لمكافحة المعلومات الكاذبة حول عملية التصويت وإدارة الانتخابات.

وأضاف: “خلال هذه الفترة الانتخابية، سنزود الناخبين بمعلومات واقعية ودقيقة، وسنعمل على تصحيح المعلومات المضللة التي نراها حول كيفية إدارة الانتخابات”.

وأضافوا أن اللجنة ستنشئ مركزًا على موقعها الإلكتروني لدعم الناخبين والربط بموارد الثقافة الإعلامية ذات الصلة، وشجعت القائمين على الحملة على التحلي بالمسؤولية والشفافية.

وقالوا: “نحن ندرك التحديات التي يفرضها الذكاء الاصطناعي، لكن تنظيم محتوى مواد الحملة الانتخابية سيتطلب إطارًا قانونيًا جديدًا”.

“سنراقب التأثير في الانتخابات العامة وسنكون على استعداد لتكون جزءًا من المحادثات حول تأثيرها على ثقة الناخبين والمضي قدمًا”.

وقال متحدث باسم Ofcom: “لقد لاحظنا توصيات التقرير وسندرسها بعناية”.



اقرأ على الموقع الرسمي

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى