رئيس التحرير : مشعل العريفي

مخاطر كارثية .. شاهد: خبير تقني يكشف أشهر حالات التزيف بالذكاء الإصطناعي

تابعوا المرصد على Google News وعلى سناب شات Snapchat

صحيفة المرصد: حذر الخبير التقني عبد العزيز الحمادي، من "التزييف العميق" باستخدام التقنيات الحديثة، مشيرًا إلى أنه أحد أخطر أشكال الذكاء الاصطناعي التي يسهل استخدامها في التلاعب بالأصوات وتعديل الصور والفيديوهات.

وكشف الحمادي في مداخلة تلفزيونية لقناة الإخبارية، أن تلك التقنيات تمكن الأشخاص من استبدال شيء واقعي بأخر مشابه له تماما من الناحية التقنية، باستخدام أدوات بسيطة ومتوفرة بشكل كثبير جدا.

وتابع موضحًا أن تلك التقنيات أنواع، منها ما يقوم بتركيب صوت شخص معين وكأنه الشخص المراد، "أي صاحب الصوت الأصلي" بينما هو شخص مختلف تماما ، وأضاف كما يمكن لتلك التقنيات تركيب صورة الشخص المراد تصويره عن طريق شخص أخر تماماً.

وأضاف: هذه التقنيات لازالت تتطور ، فالأمر لم يتوقف على استبدال الصوت والصورة بل أصبحت تستخدم في الفيديو، فربما تشاهد على شبكة الانترنت فيديو لشخص مشهور يتحدث في أشياء ربما نستغربها، وإذا تمعنى في هذا الفيديو لوجدنا أنه تم تكوينة بتقنيات الـ Deepfake أو ما يعرف بالتزييف العميق .

arrow up