الرياض - كتبت رنا صلاح - كشفت الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” في دراسة حديثة عن تقنية التزييف العميق (Deepfake)، أنها تمثل قفزة نوعية في مجالات الإعلام، والترفيه، والتعليم، لكنها في الوقت ذاته تحمل مخاطر كبيرة على المجتمعات البشرية، لا يمكن تجاهلها.
سدايا تكشف في دراسة حديثة عن مزايا ومخاطر التزييف العميق وتدعو لتبني منظومة تشريعية وتقنية توعوية
واستعرضت الدراسة ثلاثة أنواع رئيسة للتزييف العميق، هي التزييف المرئي، والصوتي، والنصي، مبينةً أنها تستخدم خوارزميات الذكاء الاصطناعي، خاصةً التعلم العميق، لإنتاج محتوى واقعي يصعب التفريق بينه وبين الحقيقي، ويشيع استخدامها في وسائل التواصل الاجتماعي وحملات التضليل الإعلامي.
وأوضحت الدراسة أن من إيجابيات التقنية تعزيز الإبداع الفني، وتحسين تجربة المستخدم، ودعم التعليم والعدالة، ومساعدة ذوي الإعاقة، إلا أنها ترتبط بمخاطر أمنية واقتصادية وسياسية واجتماعية، مثل الاحتيال المالي، وانتحال الهوية، وتشويه السمعة، والتأثير على الرأي العام، وتهديد الأطفال بمحتوى زائف.
وأكدت “سدايا” أن المملكة سارعت لمعالجة هذه المخاطر عبر إصدار إرشادات للذكاء الاصطناعي التوليدي، وإطلاق وثيقة مبادئ التزييف العميق التي تضمنت معايير أخلاقية، واشتراطات واضحة لضمان الخصوصية والشفافية، وضوابط صارمة على الاستخدام السلبي للتقنية.
وأوصت الدراسة بضرورة سن تشريعات رادعة، وتطوير أدوات تقنية وطنية، وإطلاق حملات توعية، ضمن منظومة متكاملة تعزز الأمن الرقمي وتحمي المجتمع.
أخبار متعلقة :