دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي
آخر تحديث GMT12:58:49
 العرب اليوم -

دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي

 العرب اليوم -

 العرب اليوم - دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي

تقنيات الذكاء الاصطناعي
القاهرة - العرب اليوم

أكدت دار الافتاء أنه لا يجوز شرعًا استخدام تقنية (DeepFake: التزييف العميق) لتَلْفِيق مقاطع مَرْئية أو مسموعة للأشخاص باستخدام الذكاء الاصطناعي. وقالت دار الإفتاء إن هذه التقنية تستخدم للتزييف وإظهار الأشخاص وكأنهم يفعلون أو يقولون ما لم يفعلوه ولم يقولوه في الحقيقة، مؤكدة أن في ذلك "كذِبا وغشا وإخبارا بخلاف الواقع". وتابعت الدار: "الإسلام إذ حث على الابتكار والاختراع فقد جعله ليس مقصودا لذاته، بل هو وسيلة لتحقيق غرض ما لذا أحاط الإسلام الابتكاراتِ العلمية بسياجٍ أخلاقي يقوم على أساس التقويم والإصلاح وعدم إلحاق الضرر بالنفس أو الإضرار بالغير".

وأشارت إلى أنه: "فمتى كان الشيء الـمخترع وسيلة لأمر مشروعٍ أخذ حكم المشروعية، ومتى كان وسيلة لأمر منهي عنه أخذ حكمه أيضا".د وأكدت أن اختلاق هذه المقاطع بهذه التقنية فيه قصد الإضرار بالغير، وهو أمر منهي عنه في حديث النبي صلى الله وعليه وآله وسلم: "لَا ضرر ولَا ضرار"، إضافة لما فيها من الترويع والتهديد لحياة الناس، والشريعة الإسلامية جعلت حفظ الحياة من مقاصدها العظيمة وضرورياتها المهمة؛ حتى بالغت في النهي عن ترويع الغير ولو بما صورته المزاح والترفيه. وهو أيضا جريمة قانونية يعاقب عليها وفق القانون رقم (175) لسنة 2018، الخاص بـ"مكافحة جرائم تقنية المعلومات"، فقد جرم المشرع المصري في هذا القانون نشر المعلومات المضللة والمنحرفة، وأَودع فيه مواد تتعلق بالشق الجنائي للمحتوى المعلوماتي غير المشروع.

 قد يهمك أيضــــــــــــــــًا :

دار الإفتاء المصرية تحسم الجدل حول نسبة الربح المسموح بها شرعًا

دار الإفتاء المصرية تؤكد أن الشريعة أعطت للمرأة الحق في الخلع من زوجها إذا كرهت الحياة معه

 
arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي



الملكة رانيا بعباءة بستايل شرقي تراثي تناسب أجواء رمضان

القاهرة ـ العرب اليوم

GMT 20:12 2025 الإثنين ,10 آذار/ مارس

سوريا بين الفوضى والمجهول وسط تصاعد العنف
 العرب اليوم - سوريا بين الفوضى والمجهول وسط تصاعد العنف

GMT 12:45 2025 الثلاثاء ,11 آذار/ مارس

مي عمر تردّ على انتقادات "إش إش"
 العرب اليوم - مي عمر تردّ على انتقادات "إش إش"

GMT 08:25 2025 الثلاثاء ,11 آذار/ مارس

"إكس" تتعرض إلى هجوم سيبراني ضخم
 العرب اليوم - "إكس" تتعرض إلى هجوم سيبراني ضخم

GMT 11:54 2025 الإثنين ,10 آذار/ مارس

هكذا يشنّ العرب الحروب وهكذا ينهونها

GMT 11:53 2025 الثلاثاء ,11 آذار/ مارس

لبنان وحزب الله

GMT 03:51 2025 الثلاثاء ,11 آذار/ مارس

حق أصيل للناس

GMT 01:15 2025 الثلاثاء ,11 آذار/ مارس

شهيد في قصف للاحتلال الإسرائيلي جنوب غزة

GMT 01:13 2025 الثلاثاء ,11 آذار/ مارس

مسيّرات إسرائيلية على شرق مدينة غزة

GMT 01:14 2025 الثلاثاء ,11 آذار/ مارس

9 وفيات بالكوليرا في مخيم للاجئين بأوغندا

GMT 01:10 2025 الثلاثاء ,11 آذار/ مارس

قصف إسرائيلي على مواقع للجيش السوري في درعا

GMT 08:25 2025 الثلاثاء ,11 آذار/ مارس

"إكس" تتعرض إلى هجوم سيبراني ضخم
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab