ميتا تحذر من برامج خبيثة توهم المستخدمين باعتمادها على الذكاء الاصطناعي
آخر تحديث GMT01:46:30
 العرب اليوم -

ميتا تحذر من برامج خبيثة توهم المستخدمين باعتمادها على الذكاء الاصطناعي

 العرب اليوم -

 العرب اليوم - ميتا تحذر من برامج خبيثة توهم المستخدمين باعتمادها على الذكاء الاصطناعي

تطبيق فيسبوك
واشنطن ـ العرب اليوم

حذرت شبكة ميتا (المالكة خصوصاً لتطبيقات فيسبوك وإنستجرام وواتساب)، الأربعاء من أن قراصنة معلوماتية يركبون موجة الذكاء الاصطناعي التوليدي من خلال الترويج لبرامج تشبه أدوات هذه التكنولوجيا الحديثة لكنها تُستخدم في الواقع لخداع المستخدمين.

وقال مدير أمن أنظمة المعلوماتية لدى ميتا غاي روزين خلال مؤتمر صحافي "منذ شهر مارس، حددت عمليات المسح التي أجريناها عشر مجموعات من البرامج الضارة التي تدّعي أنها تابعة لبرنامج +تشات جي بي تي+ وواجهات أخرى مماثلة لخرق حسابات الإنترنت".

وأشار إلى أن الجهات الخبيثة (بمن فيهم قراصنة المعلوماتية ومرسلو البريد العشوائي) يبحثون دائماً عن أحدث الاتجاهات، أي تلك التي "تأسر خيال" الجمهور، مثل العملات المشفرة، قبل سقوطها.

وفي هذا الإطار، تثير قدرة واجهة "تشات جي بي تي"، المطورة من شركة "أوبن ايه آي"، على التحدث بسلاسة مع البشر وإنشاء تعليمات برمجية وكذلك رسائل بريد إلكتروني وأطروحات، حماساً هائلاً لدى المستخدمين.

وقد رصدت فرق أمن المعلوماتية التابعة لميتا إضافات مزيفة لمتصفحات الإنترنت تدّعي أنها تحتوي على أدوات للذكاء الاصطناعي التوليدي. وشدد غاي روزن على أن بعض هذه الإضافات كان يحوي فعلاً على مثل هذه الأدوات، "ربما ليبدو موثوقاً في أعين منصات التحميل أو المستخدمين".

ولكن بمجرد تثبيتها على الجهاز، فإنها تسمح لقراصنة المعلوماتية باختراق البيانات الشخصية، على سبيل المثال.

أوضح غاي روزن أن ميتا قد اكتشفت وحظرت أكثر من مئة رابط خبيث يحمل إشارات إلى "تشات جي بي تي" أو برامج أخرى مماثلة، ومنعت نشرها في الإعلانات أو أي محتوى آخر على فيسبوك وإنستجرام.

مثل سائر شبكات الإنترنت العملاقة، تستثمر ميتا بكثافة في الذكاء الاصطناعي، والذي يبدو أن إمكاناته تتجاوز حتى المتخصصين والمهندسين في هذا القطاع.

لكنّ هذا المنحى الجديد في قطاع التكنولوجيا يحمل أيضاً الكثير من المخاطر، خصوصاً إذا ما استُخدم لأغراض التضليل على المنصات الرئيسية.

قال ناثانيال غليتشر، مدير الممارسات الأمنية في ميتا "نحن نستعد لذلك"، و"لدينا فرق تفكر في إمكانات إساءة استخدام (الذكاء الاصطناعي التوليدي) وما الدفاعات التي يجب وضعها لمنع حصول ذلك".

قد يهمك أيضــــــــــــــــًا :

ميتا تخفض الآلاف من الوظائف مجددًا الأسبوع المقبل

 

ميتا تعلن مواصلة إصدار أدوات الذكاء الاصطناعي

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

ميتا تحذر من برامج خبيثة توهم المستخدمين باعتمادها على الذكاء الاصطناعي ميتا تحذر من برامج خبيثة توهم المستخدمين باعتمادها على الذكاء الاصطناعي



هيفا وهبي تعكس الابتكار في عالم الموضة عبر اختيارات الحقائب الصغيرة

القاهرة ـ العرب اليوم

GMT 23:14 2025 السبت ,08 شباط / فبراير

نتنياهو يقدم "البيجر الذهبي" هدية لترامب
 العرب اليوم - نتنياهو يقدم "البيجر الذهبي" هدية لترامب

GMT 13:03 2025 الجمعة ,07 شباط / فبراير

هالة صدقي تعلن أسباب هجرتها من القاهرة

GMT 16:57 2025 الجمعة ,07 شباط / فبراير

قصي خولي يكشف مصير مسلسله مع نور الغندور

GMT 13:06 2025 الجمعة ,07 شباط / فبراير

محمد سعد يحتفل بنجاح "الدشاش" بطريقته الخاصة

GMT 17:18 2025 الجمعة ,07 شباط / فبراير

القوى العظمى.. يوتوبيا أم ديستوبيا؟

GMT 04:41 2025 السبت ,08 شباط / فبراير

سماع دوي انفجارات قوية في كييف

GMT 04:32 2025 السبت ,08 شباط / فبراير

زلزال يضرب بحر إيجة غرب تركيا

GMT 04:35 2025 السبت ,08 شباط / فبراير

قوات الاحتلال تقتحم مخيم بلاطة شرقي نابلس

GMT 05:56 2025 السبت ,08 شباط / فبراير

عاصفة شمسية تكشف أسرارًا مدهشة حول الأرض
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab