كثيرون سمعوا عن تقنية «التزييف العميق» التي تعتمد على خوارزميات الذكاء الاصطناعي في توليد مقاطع فيديو وصوت مفبركة وبعيدة عن الواقع، وهي إحدى أدوات الذكاء الاصطناعي المتسارعة تطوراً، إلى درجة قد تفوق التوقعات.
هذه التقنية التي تعتمد على «الشبكات التوليدية التنافسية» لإنتاج صور ومقاطع مضلّلة، ظهرت بقوة خلال الحرب الخاطفة التي اندلعت، مؤخراً، بين باكستان والهند بسبب النزاع المزمن على كشمير، قبل أن تتوقف بفعل ضغوط خارجية، دون أن يُعرف بوضوح الطرف المنتصر أو الخاسر.
صحيح أن الحرب كانت سريعة ولم تتجاوز الأربعة أيام، لكنها كانت كافية لمعرفة من هو الطرف الذي ألحق ضرراً أكبر في الطرف الآخر. غير أن استخدام تقنيات الذكاء الاصطناعي وتوليد مقاطع الفيديو المفبركة حال دون معرفة الحقيقة.
قبل ظهور الإعلام الرقمي، كانت تستخدم الدول في حروبها التقليدية الدعاية الإعلامية باعتبارها وسيلة مؤثرة في الحرب، وألمانيا النازية أيام الحرب العالمية الثانية الهتلرية، خير مثال لاستخدام «الماكينة» الإعلامية لدعم الروح الوطنية والمعنوية للألمان عموماً والجيش النازي بشكل خاص.
اليوم، تضيف الدول تقنيات الذكاء الاصطناعي لتمجيد حروبها وتعظيم انتصاراتها، أو تشويه الرسالة الحقيقية من الحرب لدعم مواقفها السياسية، كما يحدث حالياً في الحرب الإسرائيلية البشعة والعدوانية على قطاع غزة، وتصوير سكانه على أنهم إرهابيون.
في مثال الحرب الباكستانية - الهندية، أنتجت مقاطع فيديو مضللة بين البلدين خلال وبعد الحرب الخاطفة، وعجت شبكات التواصل الاجتماعي بمقاطع تشير إلى إسقاط مضادات أرضية باكستانية طائرات حربية هندية، وفيديو مزعوم لوزير الدفاع الباكستاني يعلن فيه الهزيمة.
والمشكلة أن التزييف العميق يمتلك قدرات تضليلية هائلة في زمن الحرب، حيث تقل قدرة الصحافيين والمواطنين على معرفة الحقيقة، حتى أنهم يتداولون نشر تلك المقاطع ويتحدثون عنها في الفضاء الرقمي، والنتيجة أن الحقيقة تضيع وسط هذه الفوضى.
والطامة الكبرى أن الذكاء الاصطناعي يتطور بمتوالية هندسية، وهذا ينعكس تماماً على تقنيات التزييف العميق التي يمكنها أن تتطور كلما تحسنت مولداتها، وكذلك الحال فيما يتعلق بكشف التمييز العميق مع اللجوء إلى المولدات المتطورة.
في ضوء كل ذلك، لا يمكن للإعلام التقليدي أن يجاري نظيره الرقمي وأدواته المختلفة، مع أن الإعلام الرسمي يترجم رسالة السلطة الحاكمة ويفترض أنه الأصدق في نشر الرواية الرسمية، إلا أنه غير قادر على إحداث التأثير الكبير في عقول الناس بدون قوانين صارمة تضبط النشر الإلكتروني، توازيها برامج توعوية لمحو الأمية الحاسوبية.
دون وعي مستمر في تقنيات الذكاء الاصطناعي وضوابط تمنع الاستخدام السيئ لهذه التقنيات المتطورة، فقد نكون كمن يقفز في الفراغ وسط فوضى من الشائعات المضللة وغياب الحقيقة، لذلك لا مفر من ضرورة التحكم البشري في تقنيات الذكاء الاصطناعي.
بمعنى أن على البشر التحكم في الفضاء الرقمي والذكاء الاصطناعي وليس العكس، بما يشمل توظيف التكنولوجيا الحديثة في مصلحة البشر، دون الإخلال في سوق العمالة والاستغناء عن الموظفين بادعاء أن الذكاء الاصطناعي يمكنه أن يحل محل البشر.
لقد قطعت فنلندا شوطاً كبيراً في محو الأمية التقنية على مستوى مواطنيها، وخصصت برامج متنوعة من المراحل العمرية المبكرة وحتى كبار السن، لهضم وفهم تقنيات الذكاء الاصطناعي وتوظيفها في الإطار الصحيح الذي يخدم في النهاية العنصر البشري.
عدا المنهج الوطني للتعليم الرقمي وبرامج المعارف الجديدة والتقدم الرقمي ودورات عناصر الذكاء الاصطناعي، حققت فنلندا الكثير من مستهدفاتها نحو بناء مجتمع واعٍ رقمياً، يمكنه على الأقل عدم إطلاق الأحكام الجزافية والسريعة قبل فهم الحقيقة الكاملة في الفضاء الرقمي.
عودة إلى حالة باكستان والهند، يمكن القول، إن هناك مئات الملايين من المواطنين في البلدين يفتقرون إلى الوعي الكافي بالفضاء الرقمي واستخلاص الحقائق، وهذا يأتي في إطار تحد أكبر يتعلق بوجود حوالى 45% من البالغين في الدول النامية لا يمتلكون المهارات الرقمية الأساسية.
هناك فجوة هائلة بين البلدين في الوصول إلى التكنولوجيا، وهذا يشكل بيئة خصبة لاستقبال الأخبار المضللة، ولذلك تحتاج الدول النامية إلى تطوير البنى التحتية الرقمية بما يعزز إمكانية وصول أفراد المجتمع إلى مصادر التكنولوجيا والتوعية تجاهها واستخدامها بطريقة إيجابية تعزز الصالح العام.
أخيراً، لا بد للبشر أن يدركوا أن خلاصهم ليس مرتبطاً بالذكاء الاصطناعي والآلة، لأنها في النهاية سلاح ذو حدين والجهل فيها قد يحيل جيشاً منهم إلى البطالة، والأولى فهم واستيعاب الأدوات التقنية والذكاء الاصطناعي وتوظيفها في خدمتهم لتطوير احتياجاتهم وتحسين حياتهم على كافة المستويات.