سكارليت جوهانسون تتحدَّث عن كيفية استخدام deepfake في التزوير
آخر تحديث GMT14:16:38
 العرب اليوم -

سلَّطت "واشنطن بوست" الضوء على ضحايا هذه التقنية

سكارليت جوهانسون تتحدَّث عن كيفية استخدام "deepfake" في التزوير

 العرب اليوم -

 العرب اليوم - سكارليت جوهانسون تتحدَّث عن كيفية استخدام "deepfake" في التزوير

الممثلة سكارليت جوهانسون
واشنطن _ رولا عيسي

تحدّثت الممثلة سكارليت جوهانسون مؤخرا لصحيفة "واشنطن بوست" عن كيفية استخدام تقنية "deepfake" في التزوير من خلال تركيب وجوه النساء في بعض المواد الإباحية، وقالت إن محاولة وقفها كانت "قضية خاسرة" وتستخدم تقنية "Deepfake" برنامجًا للذكاء الاصطناعي لتركيب صور لوجه شخص ما على لقطات لشخص آخر أو جعل الشخص يقول أشياء لم يقولها بالفعل.

وسلطت صحيفة "واشنطن بوست" الضوء على النساء اللاتي وقعن ضحية هذه التقنية في العديد من مقاطع الفيديو، وقالت الصحفية إن الممثلة جوهانسون كان ضحية لأشرطة فيديو إباحية متعددة، أحدها زعم أنه فيديو حقيقي ومسرب للممثلة وجمع هذا المقطع أكثر من 1.5 مليون مشاهدة على موقع إباحي كبير.

وقالت جوهانسون للصحفية "لا شيء يمكن أن يمنع أي شخص من قطع أو لصق صورتي أو أي شخص آخر في هيئة مختلفة وجعلها تبدو كأنها واقعية للغاية"، كما أضافت جوهانسون "الحقيقة هي أن محاولة حماية نفسك من الإنترنت وفساده هو قضية خاسرة، فالإنترنت عبارة عن ثقب ضخم من الظلام يأكل نفسه" ولا تعد جوهانسون هي الشخصية الوحيدة التي تعرضت لهذا النوع من الانتهاكات واستهدفت من قبل الأعمال الإباحية، حيث قالت إحدى النساء اللاتي ظهر وجههن على مقطع فيديو إباحي لصحيفة "واشنطن بوست" إنها شعرت "بانتهاكها"، وأضافت: "إنه شعورغريب، أنت حقا تريد أن تمزق كل شيء من الإنترنت، لكنك تعلم أنك لا تستطيع ذلك".

وعلى الرغم من تقدم تقنية deepfake قد يكون الهدف من مقاطع الفيديو الإباحية إهانة النساء ومضايقتهن، واكتشفت الصحيفة أن بعض المستخدمين في مجالس المناقشة والدردشات الخاصة يزعمون إنشاء مقاطع فيديو اباحية حسب الطلب، بمبلغ 20 دولارًا تقريبًا للفيديو وقالت الصحيفة إنها تتبعت إحدى الطلبات الذي نتج عنه تسجيل فيديو لسيدة، وقالت الصحيفة إن مقدم الطلب قدم 491 صورة لوجه السيدة، من حسابها الخاص على "فيسبوك" الخاص بها وتوجد مقاطع فيديو Deepfake في إطار قانوني، مما يجعل من الصعب على الضحايا تعقب الجناة أو إزالة المحتوى. ووفقًا لصحيفة "واشنطن بوست" يعتقد بعض الخبراء بأن مقاطع الفيديو قد تكون محمية بموجب التعديل الأول، على الرغم من أنها قد تقع أيضًا ضمن فئة التشهير أو سرقة الهوية أو الاحتيال.

قد يهمك أيضًا:

زوج يدفع زوجته لإحراق نفسها ثم يشمئز منها ويطلقها

"ساعة شيطان" تروي قصة عجوز سبعيني قتله "الشذوذ"

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

سكارليت جوهانسون تتحدَّث عن كيفية استخدام deepfake في التزوير سكارليت جوهانسون تتحدَّث عن كيفية استخدام deepfake في التزوير



الملكة رانيا بعباءة بستايل شرقي تراثي تناسب أجواء رمضان

القاهرة ـ العرب اليوم

GMT 09:43 2025 الإثنين ,10 آذار/ مارس

نيكول سابا تعلق على دورها في "وتقابل حبيب"
 العرب اليوم - نيكول سابا تعلق على دورها في "وتقابل حبيب"

GMT 02:20 2025 الإثنين ,10 آذار/ مارس

إسرائيل تقطع خط مياه استراتيجيا عن شمال غزة

GMT 23:29 2025 الأحد ,09 آذار/ مارس

القمة وما بعدها.. أسلوب التفاوض الترامبى!

GMT 02:14 2025 الإثنين ,10 آذار/ مارس

انقطاع الاتصالات والإنترنت في جنوب سوريا

GMT 01:37 2025 الإثنين ,10 آذار/ مارس

تحطم طائرة بموقف سيارات قرب مطار بنسلفانيا

GMT 02:08 2025 الإثنين ,10 آذار/ مارس

تسجيل هزة أرضية شرق ميسان

GMT 23:29 2025 الأحد ,09 آذار/ مارس

«الترامبية» فى إفطار منير فخرى عبد النور

GMT 09:25 2025 الإثنين ,10 آذار/ مارس

حظر تطبيق Telegram في المناطق الروسية

GMT 23:37 2025 الأحد ,09 آذار/ مارس

سعد لمجرد يستعد لطرح عملة رقمية خاصة به
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab