اعداد .. كديانو عليكو
تسمح تقنية “ديب فيك” أو (التزييف العميق) باستبدال الوجوه وتنسب للمشاهير تصريحات وتخلق صوراً تبدو للوهلة الاولي وكأنها حقيقية.
وينتشر على الإنترنت 15ألف فيديو مزيف بتقنية “ديب فيك” الجديدة، بينها فيديوهات للرؤساء والمشاهير.
الذكاء الاصطناعي مصطلح أصبح مألوفاً في عالم الفضاء الالكتروني مترامي الأطراف.
من منا يعرف الحقيقة من التزييف، السؤال الذي يطرح الآن هل يجب أن نقلق؟. المختصون يقولون نعم، لأن التكنولوجيا تستطيع أن تنسخ معالم وجه أي إنسان وتنسب له تصريحات لم يقلها، بحيث يصعب التمييز بين الواقعي والمزيف، تقنية الفوتوشوب أصبحت تطبق على الفيديو.
وطبقت التقنية على الرئيس الأمريكي الأسبق باراك أوباما ونسبت إليه تصريحات شتَمَ فيها الرئيس دونالد ترامب، وطبقت أيضاً على مؤسس فيسبوك مارك زوكربيرغ بأنه كان يتفاخر بتحكمه بمعلومات لمليارات من البيانات الخاصة للمستخدمين، والأسوأ هو إمكانية هذه التكنولوجيا صنع آلاف الفيديوهات للمشاهير بكلام مزيف يبدو حقيقياً للوهلة الأولى.
هناك ما يقدر بنحو 15 ألف فيديو مزيف على الانترنت منذ عام 2019، وصنع هذه الفيديوهات لا تحتاج إلى كثير من المهارات التقنية، أما التلاعب بالصوت والصورة فهو يخدم أيضا عصابات القرصنة التي تقنع البعض بدفع أموال لشركات وهمية بعد صناعة فيديو مزيف لرئيس شركة معروفة.
أن تغيير المحتوى يخدم أغراضاً مشبوهة من قبل جهات معينة سيستمر، لكن الحذر والدقة في التعامل مع تلك الفيديوهات هما مسؤولية الفرد والمؤسسة.
ما هو التزييف العميق؟
يصف مصطلح “التزييف العميق” عملية جمع ملفات الصوت والفيديو بواسطة الذكاء الاصطناعي أو التعلم الآلي بشكل دقيق.
وتكون كافة مجالات “التزييف العميق” ممكنة بداية من تبديل الوجوه بمعنى استبدال وجه شخص بآخر أو تزامن تحريك الشفاه إذ يمكن ضبط فم المتحدث على ملف صوتي مختلف عن الصوت الأصلي أو استنساخ الصوت، حيث يتم استنساخ نسخة من الصوت من أجل استخدامها لقول أشياء أخرى.
ولا يتوقف الأمر عند هذا المستوى، بل يمكن أيضا إنشاء وجوه وأجساد اصطناعية بالكامل على سبيل المثال صورة رمزية رقمية (أفاتار).
بل أن العجيب أنه يمكن استخدام تقنية “التزييف العميق” لاستحضار الموتى مثلما فعل متحف دالي في فلوريدا مع الفنان سلفادور دالي إذ استعان المتحف الأمريكي بهذه التقنية للسماح لزواره بالتقاط صورة حية مع دالي الذي توفي عام 1989، حيث يقوم بالتقاط صور سيلفي بنفسه.
تعتمد عملية استخدام الذكاء الاصطناعي للتلاعب بمقطع مصور على تقنية تُعرف بـ”شبكة الخصومة التوليدية” التي تعد نموذجا للتعلم الآلي، حيث تتنافس شبكتين عصبيتين ضد بعضهما من أجل الخروج بنتائج أكثر دقة، إذ ترمي هذه التقنية إلي تحسين النتائج.
على الرغم من أن هذه التكنولوجيا يطرأ عليها التطوير والتحسين بشكل مستمر، إلا أنه يمكن لأي شخص اكتشاف التلاعب سواء مرئياً أو صوتياً بمعنى آخر الإمساك بـ “التزييف العميق” إذا تم تحديد الشيء الذي نبحث عنه.
خطر كبير في تقنية “التزييف العميق“
يمكن استخدام تقنية “التزييف العميق” في مجال المواد الإباحية التي تأتي في إطار ما يُعرف بـ “الانتقام الإباحي”، حيث يتم نشر صور أو مقاطع إباحية مزيفة من أجل الابتزاز أو حتى إلحاق الضرر بسمعة الضحية.
ويُعرف “الانتقام الإباحي” بنشر صور أو مقاطع مصورة إباحية في الغالب على الانترنت بهدف الانتقام من اشخاص والإضرار بهم.
أما فيما يتعلق بالمجتمعات بشكل عام، فإن مخاطر تقنية “التزييف العميق” تعتمد على طريقة استهلاكنا للإنترنت إذ يشاهد الشخص الكثير عند تصفح الشبكة العنكبوتية ومواقع التواصل الاجتماعي ولا يكون على الدوام متأكدا بما ينشره أو يشاركه وهل هو حقيقي أم مفبرك؟
في نيسان عام 2019، أطلق نجم المنتخب الإنجليزي السابق ديفيد بيكهام حملة للقضاء على الملاريا عن طريق توجيه رسالة عبر مقطع مصور بتسع لغات.
بدأ بيكهام الرسالة باللغة الإنجليزية ثم تحدث بثمان لغات أخرى، بيد أن اللغات الثمانية الأخرى لم تكن بصوته وإنما بأصوات ناجين من الملاريا وأطباء.
وقالت المنظمة البريطانية التي أنتجت المقطع، إنها استخدمت تقنية خاصة بالفيديو حتى يبدو بيكهام وكأنه يتحدث بهذه اللغات الثمانية.
وسياسيا، تم إنتاج فيديو مزيف بتقنية “التزييف العميق” انتشرت بشكل كبير عن طريق موقع De Correspondent الإخباري يُظهر فيه رئيس وزراء هولندا مارك روته يتحدث عن تغيير كبير في سياسته، يما يفيد أنه سيدعم بشكل كامل التدابير المناخية بعيدة المدى.
وقد يستفيد بعض السياسيين من مناخ إعلامي ملي بالمعلومات الخاطئة، إلا أن وجود تقنية مثل “التزييف العميق” تسمح لهم بالزعم بأن ما قالوه غير حقيقي ومزيف وسيكون من الصعب إثبات العكس.
وربما يكون المثال الأوقع على هذا الأمر، ادعاء الرئيس الأمريكي السابق دونالد ترامب عام 2016 أن تسجيلاً مصوراً يعود لعام 2005 يتحدث فيه بطريقة بذيئة عن النساء، كان مفبركاً رغم أنه قدم اعتذاراًعن تلك العبارات فيما بعد.
تحذير من خبراء
وحذر علماء في تقرير من أن إنشاء مقاطع الفيديو المزيفة بات من أسهل الممارسات، مثل برامج فوتوشوب لتحرير وإدخال تعديلات على الصور الفوتوغرافية، موضحين، أن السبب يرجع إلى أن تزييف مقاطع الفيديو يعتمد إلى حد كبير على تقنية التعلم الآلي بدلاً من مهارات التصميم اليدوي، علاوة على أن مثل هذه البرامج والتطبيقات تكون عادةً بما يجعله في متناول الكثير من المستخدمين العاديين.
إن أكثر عواقب عمليات التزييف العميق خطورة هي قدرتها على جعل الجمهور العادي يتساءل عما يراه، وكلما زادت مقاطع الفيديو المزيفة قل الثقة في التمييز بين الحقيقي والمزيف.