دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي
آخر تحديث GMT23:24:41
 العرب اليوم -

دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي

 العرب اليوم -

 العرب اليوم - دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي

الذكاء الاصطناعي
أبوظبي - العرب اليوم

كشفت ورقة بحثية من كلية الإمارات للتكنولوجيا عن أبرز مخاطر التزييف العميق عبر تكنولوجيا الذكاء الاصطناعي، وأبرزها تزييف الحقائق وقال دكتور معين صالح الميتمي، في ورقته البحثية لدى كلية الإمارات للتكنولوجيا، إن المقصود بالتزييف العميق (Deepfake) هو دمج صور أي شخص حقيقي لإنتاج مقاطع فيديو بشكل تقني محترف باستخدام شخصية مصطنعة ويتم استخدام تقنيات ذكية عالية الدقة في وسائل إعلام اصطناعية؛ تتمثل هذه التقنيات بمزج التعلم الذكي مع الذكاء الاصطناعي، حيث يتم تعليم برنامج الكمبيوتر بعد ذلك كيفية تقليد تعابير وجه الشخص وسلوكياته وصوته وتصريفاته.

وأضاف: "باستخدام خوارزميات معينة، يتم التلاعب الرقمي للصوت والصورة والمؤثرات البصرية والخروج بمحتوى مزيف يحاكي ويشابه إلى درجة كبيرة جداً الشخصية الحقيقية المستهدفة" وتابع: "هذا ما يجعل من الصعب اكتشاف التزييف عند إطلاق هذا المحتوى الاصطناعي على شبكة الإنترنت وعبر وسائل الإعلام ومواقع التواصل الاجتماعي المختلفة، ويستمر هذا المحتوى بحصد نسب كبيرة من المشاهدات والمشاركات بالملايين حتى بعد اكتشاف التزييف من قبل المتخصصين المحترفين" وعن مخاطر التزييف العميق يقول الميتمي إن التزييف العميق صعب الاكتشاف وسوف يؤثر على ثقة الجمهور بمصادر المعلومات الخاصة بالفيديو وتثير الشكوك حول مدى التزييف الذي طرأ على المحتوى.

ويمكن التطرق إلى بعض المخاطر التي تنشأ عن التزييف العميق فيما يلي : يمكن استخدام هذه التقنية لإحداث تأثيرات سياسية واقتصادية ودينية واجتماعية انتشار هذه التقنية قد يؤدي إلى زيادة الجرائم المفتعلة وخاصة تلك المتعلقة بالحروب الميدانية وبالخيانة الجنسية تحويل اتجاهات الرأي العام نحو قضايا معينة قد تكون سبباً لبعض المنظمات الإرهابية لتبرير إرهابها على المجتمعات انتحال هوية أشخاص آخرين بهدف التشويه أو التزوير أو الاختلاس أو الابتزاز

ويقول الباحث: "في الحقيقة إن إعداد أي فيديو بتقنية التزييف العميق Deepfake يعتمد بشكل أساسي على كمية الصور والفيديوهات المتوفرة عن الشخصية المستهدفة، فكلما كان هناك عدد كبير من الفيديوهات على شبكة الإنترنت أمكن القيام بعملية التزييف العميق".

استخدام التزييف العميق مع الممثل الأمريكي توم كروز

وعلى سبيل المثال ظهرت مقاطع فيديو بتاريخ 22/2/2021 حتى 13/3/2021 للممثل الأمريكي توم كروز حيث قام المبرمج كرس أومي Chris Ume وهو فنان مؤثرات بصرية من بلجيكا مع أحد الممثلين الشبيهين بالممثل الأمريكي توم كروز بأداء حركات ومواقف مختلفة وفق سيناريوم تمثيلي معين مما يسمح له بالتقاط زوايا متعددة وتقليد سلوكه وأنماط حديثه، ونقل الشبكات العصابية لوجه توم كروز المشفرة وتطبيقها على وجه الممثل الشبيه بحرفية عالية الدقة ثم نشره عبر تطبيق تيك توك على حساب "deeptomcruise" الخاص به وعند عرض الفيلم أو مجموعة المقاطع الفيديو أحدثت ضجه كبيرة على وسائل التواصل الاجتماعي وشاهدها الملايين من المستخدمين ، كما تداولتها على القنوات الفضائية التلفزيونية العالمية.

قد يهمك أيضــــــــــــــــًا :

“أوبو” تطلق 3 هواتف بالذكاء الاصطناعي وتدعم الجيل الخامس

فحص متطور للعين يكشف عن الطفل المُعرّض للإصابة بالتوحد

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي



إطلالات هند صبري مصدر إلهام للمرأة العصرية الأنيقة

القاهرة ـ العرب اليوم

GMT 15:41 2024 السبت ,23 تشرين الثاني / نوفمبر

ميرهان حسين تكشف مفاجأة عن أعمالها المقبلة
 العرب اليوم - ميرهان حسين تكشف مفاجأة عن أعمالها المقبلة

GMT 09:46 2024 الخميس ,21 تشرين الثاني / نوفمبر

الفستق يتمتع بتأثير إيجابي على صحة العين ويحافظ على البصر

GMT 06:42 2024 السبت ,23 تشرين الثاني / نوفمبر

إيران ولبنان.. في انتظار لحظة الحقيقة!

GMT 07:07 2024 السبت ,23 تشرين الثاني / نوفمبر

كندا تؤكد رصد أول إصابة بالسلالة الفرعية 1 من جدري القردة

GMT 07:23 2024 السبت ,23 تشرين الثاني / نوفمبر

"فولكس فاغن" تتمسك بخطط إغلاق مصانعها في ألمانيا

GMT 11:10 2024 السبت ,23 تشرين الثاني / نوفمبر

مسيرات إسرائيلية تستهدف مستشفى كمال عدوان 7 مرات في غزة

GMT 17:28 2024 الجمعة ,22 تشرين الثاني / نوفمبر

أحمد عز يتحدث عن تفاصيل فيلم فرقة موت

GMT 11:15 2024 السبت ,23 تشرين الثاني / نوفمبر

شيرين عبد الوهاب توضح حقيقة حفلها في السعودية
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab