تحت شعار "كل شيء مباح"

في عصر الفوتوشوب والفلاتر ومواقع التواصل الاجتماعي، فالكثير منا لا يستطيع رؤية  التلاعب في الصور فتصبح المواضيع أقل حجمًا وأكثر سلاسة، أما في حالة "سناب شات"، فتتحول الصور من صور أشخاص إلى جراء صغيرة، ومع ذلك، فهناك سلالة جديدة من أدوات التلاعب في الفيديو والصوت، حققت المستحيل من خلال التقدم في الذكاء الاصطناعي ورسومات الكمبيوتر والتي من شأنها تخلق لقطات تبدو واقعية للشخصيات العامة يمكنها أن تفعل أي شيء.

على سبيل المثال، ترامب يعلن ميله للرياضات المائية، وهيلاري كلينتون تكشف أنها تحافظ على تأمينها في قبو النبيذ، وتوم كروز اعترف أخيرا أنه بروني.. هذا هو مستقبل الأخبار المزيفة، لقد قيل لنا منذ زمنًا طويلا أن لا نصدق كل ما نقرأه، ولكن سرعان ما سيكون علينا أن نتساءل عن  ما نراه ونسمعه أيضًا، ففي الوقت الراهن، هناك العديد من فرق البحث تعمل عل تحليل مختلف العناصر البصرية والصوتية للسلوك البشري، وقد تم تطويرها البرمجيات في جامعة "ستانفورد" القادرة على التلاعب لقطات الفيديو للشخصيات العامة للسماح لشخص آخر بالتحكم فيما يقولون - فتقوم البرمجيات بنقل تعبيرات الوجه من شخص لشخص آخر مع تغير وإضافة بعض الكلمات، وأظهر فريق البحث التكنولوجيا الخاصة بهم من قبل أشرطة الفيديو العرائس من جورج بوش، فلاديمير بوتين ودونالد ترامب، من تلقاء نفسها، Face2Face  ومع ذلك فان ألعوبة نقل الوجه بتعبيراته " فيس تو فيس" هي ممتعة لخلق الميمات ومسلية في وقت متأخر من المضيفين حواري ليلا. 

ويعمل فريق بحث في جامعة ألاباما في برمنجهام على انتحال الصوت، مع 3-5 دقائق من صوت الضحية - تؤخذ مباشرة أو من أشرطة فيديو "يوتيوب" أو البرامج الإذاعية - فيمكن للمهاجم خلق صوت توليف الزى يمكن أن تخدع كل من البشر وأنظمة الأمن البيومترية الصوت المستخدمة من قبل بعض البنوك والهواتف الذكي، كما  يمكن للمهاجم التحدث إلى ميكروفون وسوف البرنامج تحويله بحيث الكلمات سليمة كما يتم التحدث بها من قبل الضحية - سواء كان ذلك عبر الهاتف أو على برنامج إذاعي

وقد طورت شركة ليريبيرد الكندية قدرات مماثلة، والتي تقول أنها يمكن أن تستخدم لتحويل النص على الفور "قراءة" من قبل أصوات شهيرة أو لشخصيات في ألعاب الفيديو، وعلى الرغم من أن نواياها قد تكون ذات معنى جيد، فإن تقنية تحويل الصوت يمكن أن تقترن بتكنولوجيا وتحوير الوجه لخلق بيانات وهمية مقنعة من الشخصيات العامة، فعليك أن تنظر في مشروع جامعة أوباما، حيث  قاموا بأخذ الصوت من خطب أوباما واستخدموه لتحريك وجهه في فيديو مختلف تماما بدقة لا تصدق للحصول على شعور.

 وقال نيتش ساكسينا، الأستاذ المساعد ومدير الأبحاث في جامعة ألاباما في قسم علوم الحاسب الآلي في برمنجهام، إنه بالإضافة إلى الأخبار المزيفة هناك العديد من الآثار الأخرى. "هل يمكنك ترك رسائل صوتية وهمية تشكل كأم لشخص ما أو تشويه سمعة شخص ما نشر عينات الصوت عبر الإنترنت."

وتعبر تقنيات مورفينغ ليست تقنيات مثالية بعد، فقد تبدو تعبيرات الوجه في أشرطة الفيديو مشوهة أو غير طبيعية قليلا، ويمكن أن تبدو الأصوات روبوتية قليلا، ولكن مع الوقت، سوف تكون قادر على إعادة العب في  الصوت أو مظهر شخص - إلى درجة قد يكون من الصعب جدا على البشر للكشف عن الاحتيال نظرا لتآكل الثقة في وسائل الإعلام وانتشار الخداع المتفشي عبر وسائل التواصل الاجتماعي، سيصبح من المهم بالنسبة للمؤسسات الإخبارية أن تدقق في المحتوى.

 وأوضح ماندي جينكينز، من شركة "ستوريفول" الإخبارية الاجتماعية، وهي شركة متخصصة في التحقق في المحتوى ،أن الناس يجب أن ينظروا أيضا إلى الإضاءة والظلال في الفيديو، وما إذا كانت جميع العناصر الواردة في الإطار في حجمها الصحيح، وما إذا كان الصوت متزامنا تماما محتوى الأخبار فالمحتوى الذي تم العبث  فيه لا يمكنه ان يمر من غرفه التحقق من الأخبار ولكنه إذا انتشر على مواقع التواصل الاجتماعي يمكن أن يسبب كارثة سياسية آو دبلوماسية  فتخيل ترامب وهو يعلن الحرب على كوريا الشمالية، مضيفًا :"إذا كان شخص ما يبدو مثل ترامب ويتحدث مثل ترامب فسوف يعتقد أنه ترامب