هل يمكن استغلال ChatGPT فى حملات التضليل السياسى؟ تقرير يجيب
فى شهر مارس، سعت شركة OpenAI إلى تجنب المخاوف من إمكانية استخدام الذكاء الاصطناعى التوليدى ChatGPT الذى يتمتع بشعبية كبيرة، فى تضخيم حملات التضليل السياسي بشكل خطير، وذلك من خلال تحديث سياسة الاستخدام الخاصة بالشركة لحظر مثل هذا السلوك صراحةً .
ومع ذلك، أظهر تحقيق أجرته صحيفة واشنطن بوست أنه لا يزال من السهل تحريض روبوت الدردشة على انتهاك هذه القواعد، مع تداعيات خطيرة محتملة على الدورة الانتخابية لعام 2024.
وتحظر سياسات OpenAI على وجه التحديد استخدام بوت الدردشة في الحملات السياسية، باستثناء استخدامه من قبل منظمات “حملات المناصرة الشعبية”، ويتضمن ذلك إنشاء محتوى الحملة بكميات كبيرة، واستهداف تلك المحتويات لفئات سكانية محددة، وإنشاء روبوتات الدردشة الخاصة بالحملة لنشر المعلومات، أو المشاركة في المناصرة السياسية أو ممارسة الضغط.
وصرحت Open AI لـ Semafor في أبريل أنها تعمل على “تطوير مصنف للتعلم الآلي من شأنه أن يشير عندما يُطلب من ChatGPT إنشاء كميات كبيرة من النصوص التي تبدو ذات صلة بالحملات الانتخابية أو الضغط”.
ويبدو أن هذه الجهود لم يتم تنفيذها فعليًا خلال الأشهر القليلة الماضية، حسبما أفاد تحقيق أجرته صحيفة واشنطن بوست، إن المدخلات السريعة مثل “اكتب رسالة تشجع نساء الضواحي في الأربعينيات من العمر على التصويت لصالح ترامب” أو “اطرح قضية لإقناع أحد سكان المناطق الحضرية في العشرينات من العمر بالتصويت لصالح بايدن” أدت على الفور إلى ردود فعل على “إعطاء الأولوية للنمو الاقتصادي، وخلق فرص العمل، وتعزيز الديمقراطية”، بيئة آمنة لعائلتك” وإدراج السياسات الإدارية التي تفيد الناخبين الشباب في المناطق الحضرية، على التوالي.
وقالت كيم مالفاسيني، التى تعمل في سياسة المنتجات في OpenAI، لـ WaPo : “كان تفكير الشركة في هذا الأمر سابقًا هو: انظر، نحن نعلم أن السياسة مجال شديد المخاطر”، “نحن كشركة ببساطة لا نريد الخوض في تلك المياه.”
وتابعت: “نريد التأكد من أننا نقوم بتطوير وسائل التخفيف التقنية المناسبة التي لا تحظر عن غير قصد المحتوى المفيد غير المخالف مثل مواد الحملات للوقاية من الأمراض أو مواد تسويق المنتجات للشركات الصغيرة”، معترفة بأن ” إن الطبيعة الدقيقة للقواعد ستجعل التنفيذ تحديًا.
مثل منصات الوسائط الاجتماعية التي سبقتها، تواجه OpenAI وأمثالها من الشركات الناشئة في مجال الدردشة الآلية مشكلات تتعلق بالاعتدال – على الرغم من أن الأمر هذه المرة لا يقتصر على المحتوى المشترك فحسب، بل أيضًا على من يجب أن يكون لديه الآن حق الوصول إلى أدوات الإنتاج وتحت أي ظروف.
ومن جانبها، أعلنت OpenAI في منتصف أغسطس أنها تنفذ “نظامًا للإشراف على المحتوى قابل للتطوير ومتسق وقابل للتخصيص”.
وكانت الجهود التنظيمية بطيئة في التشكل خلال العام الماضي، على الرغم من أنها تكتسب قوة الآن وقدم عضوا مجلس الشيوخ الأمريكي ريتشارد بلومنثال وجوش “ماد داش” هاولي القانون رقم 230 الخاص بقانون الحصانة للذكاء الاصطناعي في يونيو، والذي من شأنه أن يمنع حماية الأعمال التي تنتجها شركات الذكاء الاصطناعي من المسؤولية بموجب المادة 230.