دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي
آخر تحديث GMT18:03:10
 العرب اليوم -

دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي

 العرب اليوم -

 العرب اليوم - دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي

الذكاء الاصطناعي
أبوظبي - العرب اليوم

كشفت ورقة بحثية من كلية الإمارات للتكنولوجيا عن أبرز مخاطر التزييف العميق عبر تكنولوجيا الذكاء الاصطناعي، وأبرزها تزييف الحقائق وقال دكتور معين صالح الميتمي، في ورقته البحثية لدى كلية الإمارات للتكنولوجيا، إن المقصود بالتزييف العميق (Deepfake) هو دمج صور أي شخص حقيقي لإنتاج مقاطع فيديو بشكل تقني محترف باستخدام شخصية مصطنعة ويتم استخدام تقنيات ذكية عالية الدقة في وسائل إعلام اصطناعية؛ تتمثل هذه التقنيات بمزج التعلم الذكي مع الذكاء الاصطناعي، حيث يتم تعليم برنامج الكمبيوتر بعد ذلك كيفية تقليد تعابير وجه الشخص وسلوكياته وصوته وتصريفاته.

وأضاف: "باستخدام خوارزميات معينة، يتم التلاعب الرقمي للصوت والصورة والمؤثرات البصرية والخروج بمحتوى مزيف يحاكي ويشابه إلى درجة كبيرة جداً الشخصية الحقيقية المستهدفة" وتابع: "هذا ما يجعل من الصعب اكتشاف التزييف عند إطلاق هذا المحتوى الاصطناعي على شبكة الإنترنت وعبر وسائل الإعلام ومواقع التواصل الاجتماعي المختلفة، ويستمر هذا المحتوى بحصد نسب كبيرة من المشاهدات والمشاركات بالملايين حتى بعد اكتشاف التزييف من قبل المتخصصين المحترفين" وعن مخاطر التزييف العميق يقول الميتمي إن التزييف العميق صعب الاكتشاف وسوف يؤثر على ثقة الجمهور بمصادر المعلومات الخاصة بالفيديو وتثير الشكوك حول مدى التزييف الذي طرأ على المحتوى.

ويمكن التطرق إلى بعض المخاطر التي تنشأ عن التزييف العميق فيما يلي : يمكن استخدام هذه التقنية لإحداث تأثيرات سياسية واقتصادية ودينية واجتماعية انتشار هذه التقنية قد يؤدي إلى زيادة الجرائم المفتعلة وخاصة تلك المتعلقة بالحروب الميدانية وبالخيانة الجنسية تحويل اتجاهات الرأي العام نحو قضايا معينة قد تكون سبباً لبعض المنظمات الإرهابية لتبرير إرهابها على المجتمعات انتحال هوية أشخاص آخرين بهدف التشويه أو التزوير أو الاختلاس أو الابتزاز

ويقول الباحث: "في الحقيقة إن إعداد أي فيديو بتقنية التزييف العميق Deepfake يعتمد بشكل أساسي على كمية الصور والفيديوهات المتوفرة عن الشخصية المستهدفة، فكلما كان هناك عدد كبير من الفيديوهات على شبكة الإنترنت أمكن القيام بعملية التزييف العميق".

استخدام التزييف العميق مع الممثل الأمريكي توم كروز

وعلى سبيل المثال ظهرت مقاطع فيديو بتاريخ 22/2/2021 حتى 13/3/2021 للممثل الأمريكي توم كروز حيث قام المبرمج كرس أومي Chris Ume وهو فنان مؤثرات بصرية من بلجيكا مع أحد الممثلين الشبيهين بالممثل الأمريكي توم كروز بأداء حركات ومواقف مختلفة وفق سيناريوم تمثيلي معين مما يسمح له بالتقاط زوايا متعددة وتقليد سلوكه وأنماط حديثه، ونقل الشبكات العصابية لوجه توم كروز المشفرة وتطبيقها على وجه الممثل الشبيه بحرفية عالية الدقة ثم نشره عبر تطبيق تيك توك على حساب "deeptomcruise" الخاص به وعند عرض الفيلم أو مجموعة المقاطع الفيديو أحدثت ضجه كبيرة على وسائل التواصل الاجتماعي وشاهدها الملايين من المستخدمين ، كما تداولتها على القنوات الفضائية التلفزيونية العالمية.

قد يهمك أيضــــــــــــــــًا :

“أوبو” تطلق 3 هواتف بالذكاء الاصطناعي وتدعم الجيل الخامس

فحص متطور للعين يكشف عن الطفل المُعرّض للإصابة بالتوحد

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي دراسة إماراتية تكشف أبرز مخاطر التزييف العميق عبر الذكاء الاصطناعي



تارا عماد بإطلالات عصرية تلهم طويلات القامة العاشقات للموضة

القاهرة ـ العرب اليوم

GMT 03:27 2024 الجمعة ,15 تشرين الثاني / نوفمبر

فلورنسا الإيطالية تتخذ تدابير لمكافحة السياحة المفرطة
 العرب اليوم - فلورنسا الإيطالية تتخذ تدابير لمكافحة السياحة المفرطة

GMT 13:23 2024 الخميس ,14 تشرين الثاني / نوفمبر

رونالدو وميسي على قائمة المرشحين لجوائز "غلوب سوكر"
 العرب اليوم - رونالدو وميسي على قائمة المرشحين لجوائز "غلوب سوكر"

GMT 22:43 2024 الخميس ,14 تشرين الثاني / نوفمبر

حسين فهمي يعرب عن دعمه للأفلام الفلسطينية واللبنانية
 العرب اليوم - حسين فهمي يعرب عن دعمه للأفلام الفلسطينية واللبنانية

GMT 13:26 2024 الجمعة ,15 تشرين الثاني / نوفمبر

ميتا تعتزم إضافة الإعلانات إلى ثردز في 2025
 العرب اليوم - ميتا تعتزم إضافة الإعلانات إلى ثردز في 2025

GMT 05:58 2024 الجمعة ,15 تشرين الثاني / نوفمبر

من الرياض... التزامات السلام المشروط

GMT 07:03 2024 الخميس ,14 تشرين الثاني / نوفمبر

الكشف عن وجود علاقة بين النوم المبكر وصحة أمعاء طفلك

GMT 10:26 2024 الخميس ,14 تشرين الثاني / نوفمبر

ليفربول يُرهن ضم مرموش في انتقالات يناير بشرط وحيد

GMT 11:44 2024 الخميس ,14 تشرين الثاني / نوفمبر

ارتفاع أرباح "أدنوك للإمداد" الفصلية 18% إلى 175 مليون دولار

GMT 13:23 2024 الخميس ,14 تشرين الثاني / نوفمبر

رونالدو وميسي على قائمة المرشحين لجوائز "غلوب سوكر"

GMT 20:14 2024 الأربعاء ,13 تشرين الثاني / نوفمبر

أفكار هدايا مبتكرة ومميزة في موسم الأعياد

GMT 04:27 2024 الأربعاء ,13 تشرين الثاني / نوفمبر

باريس هيلتون تحتفل بعيد ميلاد ابنتها الأول في حفل فخم

GMT 06:49 2024 الثلاثاء ,12 تشرين الثاني / نوفمبر

موديلات فساتين زواج فخمة واستثنائية لعروس 2025
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab