فوضى "التزييف العميق" تثير المخاوف من التضليل بانتخابات أميركا المرتقبة
يخشى باحثون من تأثير أدوات الذكاء الاصطناعي التي تُنتج تسجيلات مصورة ونصوصاً تبدو حقيقية إلى الحد الذي يصعّب على الناخبين التفريق بين الحقيقة والخيال، ما يقوّض الثقة في العملية الانتخابية
يواجه السباق للفوز بالانتخابات الرئاسية في الولايات المتحدة هذا العام خطر التعرض لسيل من المعلومات المضللة التي يقف الذكاء الاصطناعي خلفها، إذ يثير اتصال بصوت روبوت انتحل شخصية الرئيس جو بايدن القلق خصوصا حيال تسجيلات صوتية مزيّفة محتملة. وجاء في الرسالة الصوتية الهاتفية التي قلّدت صوت بايدن "يا له من كلام فارغ"، في ترديد لإحدى عباراته المعروفة.
وحضّ الاتصال بواسطة الروبوت سكان نيوهامشير على عدم التصويت في الانتخابات التمهيدية للحزب الديمقراطي الشهر الماضي، ما دفع سلطات الولاية لفتح تحقيق في قمع الناخبين. كما أثار مطالبات من الناشطين بتشديد القيود على أدوات الذكاء الاصطناعي التوليدي أو حظر الاتصالات بواسطة الروبوتات تماما.
تضليل وسوء استخدام للتطبيقات
ويخشى الباحثون المتخصصون في التضليل من انتشار سوء استخدام التطبيقات التي تستند إلى الذكاء الاصطناعي في عام انتخابات حاسمة بفضل انتشار أدوات استنساخ الأصوات زهيدة الثمن والتي يسهل استخدامها ويصعب تعقّبها.
وقال الرئيس التنفيذي والمؤسس المشارك لشركة "بندروب" للأمن الإلكتروني فيجاي بالاسوبراماتيان لـ"فرانس برس": "هذا بالتأكيد رأس جبل الجليد". وأضاف "يمكننا أن نتوقع رؤية المزيد من عمليات التزييف العميق على مدى دورة الانتخابات هذه".
وأفاد تحليل مفصّل نشرته "بندروب" بأن نظام تحويل النص إلى كلام الذي طوّرته شركة "إيليفن لابز" الناشئة لاستنساخ الأصوات استُخدم لإتمام الاتصال بواسطة الروبوت بصوت بايدن.
ضخ ملايين الدولارات لاستنساخ الأصوات
تأتي الفضيحة في وقت يسخّر ناشطون من الحزبين أدوات الذكاء الاصطناعي من أجل إيصال رسالة فعالة خلال الحملات الانتخابية بينما يضخّ المستثمرون في مجال التكنولوجيا ملايين الدولارات في شركات استنساخ الأصوات الناشئة.
ورفض بالاسوبراماتيان القول إن كانت "بندروب" شاركت استنتاجاتها مع "إيليفن لابز" التي أعلنت الشهر الماضي عن حزم تمويل من المستثمرين قدّرت قيمة الشركة بـ1.1 مليار دولار، بحسب "بلومبرغ".
ولم ترد "إيليفن لابز" على طلبات "فرانس برس" المتكررة الحصول على تعليق، علما بأن موقعها يقود المستخدمين إلى خدمة مجانية لتحويل النص إلى كلام من أجل "خلق أصوات ذكاء اصطناعي طبيعية فورا بأي لغة كانت".
وتقول توجيهات السلامة التابعة للشركة إنه يسمح للمستخدمين بتوليد نسخ لأصوات شخصيات سياسية على غرار دونالد ترامب من دون إذنهم إذا كانت "للتعبير عن الفكاهة أو السخرية" بطريقة "توضح للمستمع بأنه ما يسمعه هو محاكاة ساخرة وليس محتوى أصليا".
"فوضى التزييف العميق"
تفكّر الجهات الناظمة في الولايات المتحدة بجعل الاتصالات بواسطة الروبوتات التي يولدها الذكاء الاصطناعي مخالفة للقانون، وهي مساع أعطاها اتصال بايدن الزائف زخما جديدا. وقال رئيس مجموعة "بابليك سيتيزن" الناشطة روبرت وايزمان "وصلت لحظة التزييف العميق السياسي".
وأضاف "على صانعي السياسات المسارعة لفرض إجراءات حماية وإلا فنواجه فوضى انتخابية. تذكر حالة التزييف العميق في نيوهامشير بالطرق العديدة التي يمكن للتزييف العميق من خلالها إحداث إرباك".
ويخشى باحثون من تأثير أدوات الذكاء الاصطناعي التي تُنتج تسجيلات مصورة ونصوصا تبدو حقيقية إلى الحد الذي يصعّب على الناخبين التفريق بين الحقيقة والخيال، ما يقوّض الثقة في العملية الانتخابية. ولكن المقاطع الصوتية المزيفة المستخدمة لانتحال هويات شخصيات معروفة أو سياسيين حول العالم تعد الأكثر إثارة للقلق.
وقال محلل السياسات البارز في "مركز الديمقراطية والتكنولوجيا" تيم هاربر لـ"فرانس برس": "من بين جميع الوسائل (فيديو أو صور أو مقاطع صوتية) التي يمكن للذكاء الاصطناعي استخدامها لقمع الناخبين، فإن المقاطع الصوتية هي الأكثر خطورة". وأضاف: "من السهل استنساخ صوت بواسطة الذكاء الاصطناعي ومن الصعب التعرّف عليه"."سلامة الانتخابات"
وتعقّد سهولة صناعة ونشر محتوى صوتي مزيّف مشهدا سياسيا يعاني أساسا من الاستقطاب الشديد، ما يقوّض الثقة في الإعلام ويمكن أي شخص من زعم أن الأدلة المبنية على حقائق "هي مفبركة"، وفق ما قال الرئيس التنفيذي لـ"بلاكبرد أيه آي" Blackbird.AI وسيم خالد لـ"فرانس برس". وتسود هذه المخاوف في وقت تنتشر أدوات الذكاء الاصطناعي الصوتية بسرعة أكبر من البرامج المخصصة لرصدها.
"ستريم فويس"
وكشفت شركة "بايت دانس" الصينية المالكة لمنصة "تيك توك" واسعة الانتشار مؤخرا عن "ستريم فويس"، وهي أداة ذكاء اصطناعي تحوّل بالوقت الحقيقي صوت المستخدم إلى أي بديل آخر.
وأفاد بالاسوبراماتيان بأنه "على الرغم من أن المهاجمين استخدموا إيليفن لابز هذه المرة، يرجّح بأن يكون نظام ذكاء اصطناعي توليدي آخر في الهجمات المستقبلية". وتابع: "من الضروري أن يكون هناك ما يكفي من الضمانات المتاحة في هذه الأدوات".
وأوصى بالاسوبراماتيان وغيره من الباحثين بإدخال دمغات صوتية أو تواقيع رقمية على هذه الأدوات من أجل الحماية ووضع قواعد تجعلها متاحة للمستخدمين الذين يتم التحقق منهم فحسب.
وأفاد هاربر: "حتى بهذه الإجراءات، فإنه من الصعب والمكلف جدا اكتشاف متى يتم استخدام هذه الأدوات لصناعة محتوى مضر ينتهك شروط الخدمة". وأضاف: "يتطلب الأمر استثمارا في الثقة والسلامة والتزاما ببناء (البرامج) مع اعتبار سلامة الانتخابات خطرا مركزيا"
0 Comments: