“المالكي ضد Grok”.. هل يُحاكم الذكاء الاصطناعي بتهمة التشهير؟ أزمة “الفيديو المفبرك” تشتعل

لوّح صانع المحتوى والمشهور السعودي أحمد المالكي باتخاذ إجراءات قانونية رسمية ضد منصة X ونظام ذكائها الاصطناعي Grok، وذلك بعد قيام الأخير بنسبة مقطع فيديو مثير للجدل له بشكل متكرر. رغم تأكيدات المغردين والخبراء بأن الشخص الظاهر في الفيديو ليس المالكي، إلا أن “خوارزميات Grok” استمرت في توليد نصوص تؤكد هويته، مما تسبب في حملة تشهير واسعة النطاق وضعت موثوقية الذكاء الاصطناعي والمسؤولية القانونية لشركات التقنية على المحك في مارس 2026.


ماذا يعني هذا الخبر للمتابع والمجتمع الرقمي؟ (تحليل إخباري)

قضية أحمد المالكي ليست مجرد خلاف بين مشهور ومنصة، بل هي “جرس إنذار” لعدة قضايا:

  1. فخ “الهلوسة الرقمية”: أثبتت الواقعة أن أنظمة الذكاء الاصطناعي (مثل Grok) قد تقع في فخ “تأكيد الانحياز”، حيث تجمع معلومات مغلوطة من تغريدات المستخدمين وتعيد صياغتها كحقائق، مما يحول “الإشاعة” إلى “خبر موثق” آلياً.
  2. خطر الاغتيال المعنوي: التشهير عبر الذكاء الاصطناعي أخطر من التشهير التقليدي؛ لأن المستخدم يثق في “الآلة” بوصفها مصدراً محايداً، مما يضاعف الضرر الواقع على سمعة الأفراد وعائلاتهم.
  3. المسؤولية القانونية للشركات: تفتح القضية باب التساؤل: هل منصة X مسؤولة عما يكتبه روبوتها؟ القوانين الدولية (مثل المادة 230 في أمريكا) تحمي المنصات من محتوى المستخدمين، لكنها قد لا تحميها من محتوى “صنعته الآلة الخاصة بها”.

وقفة تاريخية: من “فوتوشوب” إلى “التزييف العميق” والهلوسة

تاريخياً، بدأت معارك التشهير بالصور المفبركة عبر “الفوتوشوب”، ثم انتقلت لتقنيات “التزييف العميق” (Deepfake). ولكن في عام 2026، ننتقل لمرحلة جديدة كلياً: “التشهير عبر المعالجة اللغوية”. قضية المالكي تذكرنا بدعاوى قضائية بدأت تظهر في 2024 و2025 ضد شركات مثل OpenAI وGoogle بسبب “هلوسة” الروبوتات ونسب جرائم لأشخاص لم يرتكبوها، مما يؤكد أن التشريعات العالمية لا تزال تلهث خلف سرعة تطور الذكاء الاصطناعي.


تفاصيل الأزمة القانونية المرتقبة (نقاط مرتبة):

  • الواقعة: فيديو متداول يظهر شخصاً مع امرأة، نسبه نظام Grok لأحمد المالكي بناءً على “تحليل” خاطئ للتريند.
  • موقف الجمهور: موجة تعاطف واسعة مع المالكي، مع توثيق آلاف المغردين لخطأ الذكاء الاصطناعي ومطالبة المنصة بالاعتذار.
  • الدعوى المحتملة: قد تستند الدعوى لمخالفة “نظام مكافحة الجرائم المعلوماتية” (في حال رفعها محلياً) أو قوانين التشهير الدولية ضد شركة X.
  • تحدي Grok: يعتمد النظام على بيانات حية من التغريدات، مما يجعله عرضة لنشر “الأكاذيب الأكثر تداولاً” كأنها حقائق.

رؤية استشرافية: هل يغير المالكي “قواعد اللعبة”؟

إذا استمر أحمد المالكي في إجراءاته القانونية، فقد نكون أمام أول حكم قضائي عربي (أو دولي ضد فرع المنصة) يقر بأن “خطأ الذكاء الاصطناعي هو خطأ الشركة المصنعة له”. التوقعات تشير إلى أن شركات التقنية ستضطر لوضع “فلاتر حماية” صارمة تمنع الروبوتات من ذكر أسماء الأفراد في وقائع حسنة أو سيئة دون توثيق رسمي، حمايةً لأنفسهم من التعويضات المليارية التي قد تترتب على “كلمة خاطئة” من روبوت.


خاتمة تفاعلية: برأيك، هل يجب معاملة أخطاء الذكاء الاصطناعي كـ “عطل فني” لا يستوجب العقاب، أم كـ “جريمة تشهير” تتحملها الشركة المطورة بالكامل؟