تخطى إلى المحتوى

الهجمات الجديدة على الخصوصية في نماذج الذكاء الاصطناعي

مع التقدم السريع في تكنولوجيا الذكاء الاصطناعي، تزداد المخاوف بشأن الخصوصية وتسرب البيانات. وقد أثار فريق من الباحثين من جامعة سنغافورة الوطنية وBrave هذه المخاوف من خلال تطوير هجوم جديد يكشف عن نقاط الضعف في خصوصية البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي.

التحديات في حماية خصوصية البيانات

يواجه العالم تحديات كبيرة في حماية خصوصية البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي، حيث يمكن لهذه النماذج أن تحتفظ بمعلومات حساسة من مجموعات البيانات التدريبية. في قطاع الرعاية الصحية، يمكن أن تكشف النماذج المدربة على الملاحظات الطبية عن معلومات حساسة للمرضى. أما في مجال الأعمال، فإن استخدام البريد الإلكتروني الداخلي في التدريب يمكن أن يؤدي إلى تسرب اتصالات الشركة السرية.

ازدادت هذه المخاوف مع إعلان شركات مثل LinkedIn عن نيتها استخدام بيانات المستخدمين لتحسين نماذجها التوليدية، مما يثير تساؤلات حول إمكانية ظهور محتوى خاص في النصوص المولدة.

فهم هجمات استدلال العضوية

للاختبار والتأكد من تسرب البيانات، يستخدم خبراء الأمان هجمات استدلال العضوية (MIAs)، والتي تسأل النماذج سؤالًا حاسمًا: “هل شاهدت هذا المثال أثناء التدريب؟”. إذا تمكن المهاجم من الإجابة عن هذا السؤال بدقة، فإنه يثبت أن النموذج يقوم بتسريب معلومات حول بيانات التدريب، مما يشكل خطرًا مباشرًا على الخصوصية.

تعتمد هذه الهجمات على الفجوات السلوكية للنماذج عند معالجة البيانات التي تم تدريبها عليها مقارنة بالبيانات الجديدة وغير المعروفة.

هجوم CAMIA: النهج الجديد

تم تطوير هجوم CAMIA (هجوم استدلال العضوية المدرك للسياق) لتجاوز القيود التي تواجهها الهجمات السابقة. يركز CAMIA على الطبيعة التوليدية للنماذج الحديثة ويقوم بتتبع كيفية تطور شكوك النموذج أثناء توليد النصوص. يسمح ذلك بقياس سرعة انتقال الذكاء الاصطناعي من “التخمين” إلى “الاستذكار المؤكد”.

يمكّن CAMIA من ضبط الحالات التي يكون فيها انخفاض الشك ناتجًا عن تكرار بسيط ويحدد الأنماط الدقيقة للاستذكار التي تفوتها الطرق الأخرى. تم اختبار الهجوم على النماذج الكبيرة مثل Pythia وGPT-Neo وحقق نتائج مبهرة بزيادة معدلات الكشف.

الكفاءة والفعالية

أحد الجوانب البارزة لهجوم CAMIA هو كفاءته الحسابية. على سبيل المثال، يمكنه معالجة 1000 عينة في حوالي 38 دقيقة فقط باستخدام GPU واحد من نوع A100، مما يجعله أداة عملية لتدقيق النماذج.

الخاتمة

يعد العمل الذي قام به الباحثون تذكيرًا مهمًا لصناعة الذكاء الاصطناعي بالمخاطر التي تواجهها عند تدريب نماذج أكبر على مجموعات بيانات واسعة وغير مفلترة. يأمل الباحثون أن يسهم عملهم في تطوير تقنيات أكثر حفاظًا على الخصوصية وأن يساهم في الجهود المستمرة لموازنة فائدة الذكاء الاصطناعي مع الخصوصية الأساسية للمستخدمين.