‏إظهار الرسائل ذات التسميات تقنيات ذكاء اصطناعي. إظهار كافة الرسائل
‏إظهار الرسائل ذات التسميات تقنيات ذكاء اصطناعي. إظهار كافة الرسائل

الجمعة، 9 يناير 2026

الصين تشدد الرقابة على روبوتات الدردشة الذكية لحماية المستخدمين

الصين تشدد الرقابة على روبوتات الدردشة الذكية لحماية المستخدمين

الصين تشدد الرقابة على روبوتات الدردشة الذكية لحماية المستخدمين

                                                   روبوتات الدردشة
الصين تشدد الرقابة على روبوتات الدردشة الذكية لحماية المستخدمين 

اللوائح الجديدة تعكس انتقالًا من سلامة المحتوى إلى سلامة المشاعر

تعتزم الصين فرض قيود جديدة صارمة على روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، في خطوة تستهدف الحد من تأثيرها العاطفي على المستخدمين، خصوصًا في القضايا الحساسة مثل الانتحار، وإيذاء النفس، والمقامرة، وفق مسودة لوائح تنظيمية نُشرت السبت.

وبحسب المسودة الصادرة عن إدارة الفضاء الإلكتروني الصينية، تستهدف القواعد الجديدة ما يُعرف بـ "خدمات الذكاء الاصطناعي التفاعلية الشبيهة بالبشر"، وهي الأنظمة التي تحاكي الشخصية الإنسانية وتتفاعل مع المستخدمين عاطفيًا عبر النصوص أو الصور أو الصوت أو الفيديو. ومن المقرر أن يستمر فتح باب الملاحظات العامة حتى 25 يناير المقبل.

ويرى خبراء أن هذه الخطوة تمثل سابقة عالمية، إذ ستكون الصين أول دولة تحاول تنظيم الذكاء الاصطناعي ذي الطابع الإنساني أو الأنثروبومورفي، بحسب تقرير نشرته شبكة "سي إن بي سي". وقال وينستون ما، أستاذ القانون المشارك بجامعة نيويورك، إن اللوائح الجديدة تعكس انتقالًا "من سلامة المحتوى إلى سلامة المشاعر"، في ظل الانتشار السريع لتطبيقات "الرفيق الرقمي" والمشاهير الافتراضيين في الصين.

قيود مشددة على المحتوى والتفاعل

وتنص المسودة على حظر توليد أي محتوى يشجع على الانتحار أو إيذاء النفس، أو يتضمن عنفًا لفظيًا أو تلاعبًا عاطفيًا قد يضر بالصحة النفسية للمستخدمين. وفي حال أبدى المستخدم نية صريحة للانتحار، تُلزم القواعد شركات التقنية بتدخل بشري فوري، مع التواصل مباشرة مع ولي الأمر أو شخص محدد مسبقًا.

كما تحظر اللوائح على روبوتات الدردشة إنتاج محتوى يتعلق بالمقامرة أو المواد الإباحية أو العنف، مع فرض قيود خاصة على استخدام القُصر لتقنيات "الصحبة العاطفية" القائمة على الذكاء الاصطناعي، بما في ذلك اشتراط موافقة أولياء الأمور وتحديد فترات زمنية للاستخدام.وتلزم القواعد المنصات بمحاولة التحقق من عمر المستخدمين حتى في حال عدم الإفصاح عنه، وتطبيق إعدادات خاصة بالقُصر عند الشك، مع إتاحة آلية للاعتراض.

كما تُلزم الشركات بتنبيه المستخدمين بعد ساعتين من التفاعل المتواصل مع الذكاء الاصطناعي، وإجراء تقييمات أمنية إلزامية للروبوتات التي يتجاوز عدد مستخدميها مليون مسجل أو 100 ألف مستخدم نشط شهريًا. ورغم التشدد، شجعت الوثيقة استخدام الذكاء الاصطناعي الشبيه بالبشر في مجالات نشر الثقافة ورعاية كبار السن.

توقيت حساس مع موجة اكتتابات

ويأتي هذا التحرك التنظيمي في وقت تقدمت فيه شركتا "Z.ai" و"Minimax"، وهما من أبرز مطوري روبوتات الدردشة في الصين، بطلبات اكتتاب عام أولي في بورصة هونغ كونغ.

وتُعرف "Minimax" بتطبيق "Talkie AI"، الذي يتيح التفاعل مع شخصيات افتراضية، ويضم عشرات الملايين من المستخدمين النشطين شهريًا. ولم تُعلق الشركتان على تأثير القواعد المقترحة على خطط الطرح، إلا أن التوقيت يسلط الضوء على تصاعد التدقيق التنظيمي في هذا القطاع سريع النمو.

قلق عالمي متزايد

ولا يقتصر الجدل حول تأثير الذكاء الاصطناعي العاطفي على الصين، إذ تتزايد المخاوف عالميًا بشأن تأثير هذه التقنيات على السلوك البشري والصحة النفسية. وكان سام ألتمان، الرئيس التنفيذي لشركة OpenAI، قد أقر مؤخرًا بصعوبة تعامل روبوتات الدردشة مع محادثات الانتحار، في وقت أعلنت فيه الشركة تعيين مسؤول جديد لتقييم مخاطر الذكاء الاصطناعي، من الصحة النفسية إلى الأمن السيبراني.

وتعكس الخطوة الصينية سعي بكين المتواصل لتشكيل قواعد حوكمة عالمية للذكاء الاصطناعي، في وقت يتزايد فيه اعتماد الأفراد على هذه التقنيات، حتى في العلاقات الشخصية، ما يفتح الباب أمام أسئلة أخلاقية وتنظيمية غير مسبوقة.

الأربعاء، 20 أغسطس 2025

 هكذا يسرق "قراصنة الذكاء الاصطناعي" المليارات بطرق بسيطة

هكذا يسرق "قراصنة الذكاء الاصطناعي" المليارات بطرق بسيطة

                        يشهد مجال الذكاء الاصطناعي تطورا هائلا


هكذا يسرق "قراصنة الذكاء الاصطناعي" المليارات بطرق بسيطة

كشف تقرير أن الذكاء الاصطناعي وسع نطاق هجمات القراصنة، وسهل على الهاكرز عملية استهداف أكبر عدد من الضحايا، وسرقة مبالغ ضخمة بجهد أقل. وذكر تقرير لصحيفة "إيكونوميست" أنه بعد إطلاق روبوت المحادثة "شات جي بي تي سنة 2022، لم يعد على الهاكرز إنفاق مبالغ ضخمة على فرق من القراصنة والمعدات، بفضل نماذج الذكاء الاصطناعي التوليدية.

وقال الباحث في تهديدات الذكاء الاصطناعي فيتالي سيمونوفيتش، إن روبوت المحادثة "شات جي بي تي" يمكن أن ينشئ برمجيات خبيثة تعمل على كسر جدار الحماية، واختراق المستخدمين في مدة وجيزة. هذا التطور الجديد كان وقعه كارثيا على العديد من الشركات، التي أصبحت ضحية لقراصنة مدعومين بالذكاء الاصطناعي. واستغل القراصنة الذكاء الاصطناعي عبر استخدام نماذج اللغة الكبيرة (LLMs)، لتوسيع نطاق البرمجيات الخبيثة، وإنشاء فيديوهات وصور ورسائل بريد مزيفة. ويمكن للقراصنة إطلاق حملات واسعة النطاق عبر جمع كمية ضخمة من المعلومات من الإنترنت ووسائل التواصل الاجتماعي، لإنشاء رسائل بريدية مزيفة.

كما أن القراصنة يستخدمون الذكاء الاصطناعي لجعل البرمجيات الخبيثة أكثر خطورة. إذ يمكن إرسال ملفات PDF تحتوي على رمز يعمل مع الذكاء الاصطناعي لاختراق الشبكات، وقد استخدم هذا الأسلوب في هجمات على أنظمة الأمن والدفاع في أوكرانيا، في يوليو الماضي. وتشكل هذه التهديدات مصدر قلق متزايد للشركات، وكبدتها خسائر مالية كبيرة. فبحسب التقرير، كان الذكاء الاصطناعي متورطا في كل ستة اختراقات للبيانات العام الماضي.

وتقدر شركة "ديلويت"، المتخصصة في تقديم الاستشارات والخدمات المالية للشركات والحكومات، أن الذكاء الاصطناعي التوليدي قد يؤدي إلى سرقة 40 مليار دولار بحلول عام 2027، ارتفاعا من 12 مليار سنة 2023. وأدى هذا التهديد المتزايد إلى ارتفاع الطلب على خدمات الأمن السيبراني، وشهدت شركات هذا القطاع نموا ملحوظا.

كما عملت شركات التكنولوجيا الكبرى ذات الأذرع السحابية على تعزيز الأمن السيبراني، فقد استحوذت شركة مايكروسوفت على شركة "كولد نوكس" المتخصصة في حماية الهوية، في عام 2021، بينما طورت شركة غوغل شركة "بيغ سليب" للكشف عن الهجمات والثغرات قبل استغلالها.