ميتا تحذر من برامج خبيثة توهم المستخدمين باعتمادها على الذكاء الاصطناعي
آخر تحديث GMT22:15:29
 العرب اليوم -

ميتا تحذر من برامج خبيثة توهم المستخدمين باعتمادها على الذكاء الاصطناعي

 العرب اليوم -

 العرب اليوم - ميتا تحذر من برامج خبيثة توهم المستخدمين باعتمادها على الذكاء الاصطناعي

تطبيق فيسبوك
واشنطن ـ العرب اليوم

حذرت شبكة ميتا (المالكة خصوصاً لتطبيقات فيسبوك وإنستجرام وواتساب)، الأربعاء من أن قراصنة معلوماتية يركبون موجة الذكاء الاصطناعي التوليدي من خلال الترويج لبرامج تشبه أدوات هذه التكنولوجيا الحديثة لكنها تُستخدم في الواقع لخداع المستخدمين.

وقال مدير أمن أنظمة المعلوماتية لدى ميتا غاي روزين خلال مؤتمر صحافي "منذ شهر مارس، حددت عمليات المسح التي أجريناها عشر مجموعات من البرامج الضارة التي تدّعي أنها تابعة لبرنامج +تشات جي بي تي+ وواجهات أخرى مماثلة لخرق حسابات الإنترنت".

وأشار إلى أن الجهات الخبيثة (بمن فيهم قراصنة المعلوماتية ومرسلو البريد العشوائي) يبحثون دائماً عن أحدث الاتجاهات، أي تلك التي "تأسر خيال" الجمهور، مثل العملات المشفرة، قبل سقوطها.

وفي هذا الإطار، تثير قدرة واجهة "تشات جي بي تي"، المطورة من شركة "أوبن ايه آي"، على التحدث بسلاسة مع البشر وإنشاء تعليمات برمجية وكذلك رسائل بريد إلكتروني وأطروحات، حماساً هائلاً لدى المستخدمين.

وقد رصدت فرق أمن المعلوماتية التابعة لميتا إضافات مزيفة لمتصفحات الإنترنت تدّعي أنها تحتوي على أدوات للذكاء الاصطناعي التوليدي. وشدد غاي روزن على أن بعض هذه الإضافات كان يحوي فعلاً على مثل هذه الأدوات، "ربما ليبدو موثوقاً في أعين منصات التحميل أو المستخدمين".

ولكن بمجرد تثبيتها على الجهاز، فإنها تسمح لقراصنة المعلوماتية باختراق البيانات الشخصية، على سبيل المثال.

أوضح غاي روزن أن ميتا قد اكتشفت وحظرت أكثر من مئة رابط خبيث يحمل إشارات إلى "تشات جي بي تي" أو برامج أخرى مماثلة، ومنعت نشرها في الإعلانات أو أي محتوى آخر على فيسبوك وإنستجرام.

مثل سائر شبكات الإنترنت العملاقة، تستثمر ميتا بكثافة في الذكاء الاصطناعي، والذي يبدو أن إمكاناته تتجاوز حتى المتخصصين والمهندسين في هذا القطاع.

لكنّ هذا المنحى الجديد في قطاع التكنولوجيا يحمل أيضاً الكثير من المخاطر، خصوصاً إذا ما استُخدم لأغراض التضليل على المنصات الرئيسية.

قال ناثانيال غليتشر، مدير الممارسات الأمنية في ميتا "نحن نستعد لذلك"، و"لدينا فرق تفكر في إمكانات إساءة استخدام (الذكاء الاصطناعي التوليدي) وما الدفاعات التي يجب وضعها لمنع حصول ذلك".

قد يهمك أيضــــــــــــــــًا :

ميتا تخفض الآلاف من الوظائف مجددًا الأسبوع المقبل

 

ميتا تعلن مواصلة إصدار أدوات الذكاء الاصطناعي

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

ميتا تحذر من برامج خبيثة توهم المستخدمين باعتمادها على الذكاء الاصطناعي ميتا تحذر من برامج خبيثة توهم المستخدمين باعتمادها على الذكاء الاصطناعي



الأسود يُهيمن على إطلالات ياسمين صبري في 2024

القاهرة ـ العرب اليوم

GMT 08:51 2024 الإثنين ,30 كانون الأول / ديسمبر

نصائح مهمة يجب اتباعها عند شراء السجاد لضمان اختيار مناسب
 العرب اليوم - نصائح مهمة يجب اتباعها عند شراء السجاد لضمان اختيار مناسب

GMT 22:15 2024 الإثنين ,30 كانون الأول / ديسمبر

الجيش الإسرائيلي يعلن اعتراض صاروخ أطلق من اليمن
 العرب اليوم - الجيش الإسرائيلي يعلن اعتراض صاروخ أطلق من اليمن

GMT 11:55 2024 الإثنين ,30 كانون الأول / ديسمبر

روبي تحدد شروطًا صارمة لإحياء حفل رأس السنة
 العرب اليوم - روبي تحدد شروطًا صارمة لإحياء حفل رأس السنة

GMT 19:14 2024 الأحد ,29 كانون الأول / ديسمبر

مقتل 11 شخصاً في انفجار مستودع أسلحة قرب العاصمة السورية

GMT 20:34 2024 الأحد ,29 كانون الأول / ديسمبر

إطلاق خمسة مقذوفات من شمال قطاع غزة نحو إسرائيل

GMT 08:31 2024 الإثنين ,30 كانون الأول / ديسمبر

لا للعفو العام.. نعم لسيادة القانون

GMT 09:28 2024 الإثنين ,30 كانون الأول / ديسمبر

الأسود يُهيمن على إطلالات ياسمين صبري في 2024

GMT 10:28 2024 السبت ,28 كانون الأول / ديسمبر

شيرين عبد الوهاب تعود لإحياء الحفلات في مصر بعد غياب

GMT 08:58 2024 الإثنين ,30 كانون الأول / ديسمبر

ديكورات تضيف الدفء لمنزلك وتجعل أجواءه مريحة ومثالية

GMT 08:25 2024 الإثنين ,30 كانون الأول / ديسمبر

سوريا... دبسٌ وهمسٌ

GMT 11:55 2024 الإثنين ,30 كانون الأول / ديسمبر

روبي تحدد شروطًا صارمة لإحياء حفل رأس السنة
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab