دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي
آخر تحديث GMT17:42:37
 العرب اليوم -

دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي

 العرب اليوم -

 العرب اليوم - دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي

تقنيات الذكاء الاصطناعي
القاهرة - العرب اليوم

أكدت دار الافتاء أنه لا يجوز شرعًا استخدام تقنية (DeepFake: التزييف العميق) لتَلْفِيق مقاطع مَرْئية أو مسموعة للأشخاص باستخدام الذكاء الاصطناعي. وقالت دار الإفتاء إن هذه التقنية تستخدم للتزييف وإظهار الأشخاص وكأنهم يفعلون أو يقولون ما لم يفعلوه ولم يقولوه في الحقيقة، مؤكدة أن في ذلك "كذِبا وغشا وإخبارا بخلاف الواقع". وتابعت الدار: "الإسلام إذ حث على الابتكار والاختراع فقد جعله ليس مقصودا لذاته، بل هو وسيلة لتحقيق غرض ما لذا أحاط الإسلام الابتكاراتِ العلمية بسياجٍ أخلاقي يقوم على أساس التقويم والإصلاح وعدم إلحاق الضرر بالنفس أو الإضرار بالغير".

وأشارت إلى أنه: "فمتى كان الشيء الـمخترع وسيلة لأمر مشروعٍ أخذ حكم المشروعية، ومتى كان وسيلة لأمر منهي عنه أخذ حكمه أيضا".د وأكدت أن اختلاق هذه المقاطع بهذه التقنية فيه قصد الإضرار بالغير، وهو أمر منهي عنه في حديث النبي صلى الله وعليه وآله وسلم: "لَا ضرر ولَا ضرار"، إضافة لما فيها من الترويع والتهديد لحياة الناس، والشريعة الإسلامية جعلت حفظ الحياة من مقاصدها العظيمة وضرورياتها المهمة؛ حتى بالغت في النهي عن ترويع الغير ولو بما صورته المزاح والترفيه. وهو أيضا جريمة قانونية يعاقب عليها وفق القانون رقم (175) لسنة 2018، الخاص بـ"مكافحة جرائم تقنية المعلومات"، فقد جرم المشرع المصري في هذا القانون نشر المعلومات المضللة والمنحرفة، وأَودع فيه مواد تتعلق بالشق الجنائي للمحتوى المعلوماتي غير المشروع.

 قد يهمك أيضــــــــــــــــًا :

دار الإفتاء المصرية تحسم الجدل حول نسبة الربح المسموح بها شرعًا

دار الإفتاء المصرية تؤكد أن الشريعة أعطت للمرأة الحق في الخلع من زوجها إذا كرهت الحياة معه

 
arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي



نانسي عجرم تتألق بالأسود اللامع من جديد

بيروت ـ العرب اليوم

GMT 12:43 2025 الأربعاء ,23 إبريل / نيسان

السودان .. وغزة!

GMT 11:36 2025 الأربعاء ,23 إبريل / نيسان

عودة النّزاع على سلاح “الحزب”!

GMT 11:38 2025 الأربعاء ,23 إبريل / نيسان

ماذا تفعل لو كنت جوزف عون؟

GMT 15:55 2025 الأربعاء ,23 إبريل / نيسان

زلزال عنيف يضرب إسطنبول بقوه 6.2 درجة

GMT 02:27 2025 الأربعاء ,23 إبريل / نيسان

توقعات الأبراج اليوم الأربعاء 23 إبريل / نيسان 2025

GMT 11:52 2025 الأربعاء ,23 إبريل / نيسان

ثمة ما يتحرّك في العراق..

GMT 15:56 2025 الأربعاء ,23 إبريل / نيسان

زلزال بقوة 4.3 درجة يضرب ولاية جوجارات الهندية

GMT 15:51 2025 الأربعاء ,23 إبريل / نيسان

وفاة الإعلامى السورى صبحى عطرى

GMT 15:48 2025 الأربعاء ,23 إبريل / نيسان

"بتكوين" تقفز لأعلى مستوى فى 7 أسابيع

GMT 03:26 2025 الخميس ,24 إبريل / نيسان

غارات أميركية تستهدف صنعاء وصعدة

GMT 03:29 2025 الخميس ,24 إبريل / نيسان

توقعات الأبراج اليوم الخميس 24 إبريل / نيسان 2025

GMT 03:24 2025 الخميس ,24 إبريل / نيسان

قتلى وجرحى في انفجار لغم أرضي شرقي حلب

GMT 01:13 2025 الثلاثاء ,22 إبريل / نيسان

جليد القطب الشمالي يسجل أصغر مساحة منذ 46 عاماً
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab