الأخبار

تكنلوجيا: “سامسونغ” وتسريب البيانات عبر ChatGPT

28
سامسونغ وتسريب البيانات عبر ChatGPT

بقلم: حسام خطاب

⛔️ خلال عشرين يوما من تشجيع سامسونغ لموظفيها على استخدام نظام المحادثة ChatGPT، وقعت ثلاث حوادث تسريبات لبيانات حساسة. التفاصيل:

✅️ مع الضجة العالمية المواكبة لظهور نظام المحادثة ChatGPT المبني على تقنيات الذكاء الصناعي، سامسونغ شجعت موظفيها على استغلاله أملا في تحسين العمليات الداخلية وتقليل الوقت المستغرق في إنجاز المهام المختلفة.

✅️ خلال عشرين يوما من فترة السماح لاستخدام نظام ChatGPT، تعرضت شركة سامسونغ لثلاث حوادث تسريبات لبيانات حساسة، وهي كما يلي:

1️⃣ مبرمج كان يعمل على كود مصدري لقاعدة بيانات تعود إلى قسم أشباه الموصلات. أراد فحص الكود المصدري وتحسينه، فشاركه مع نظام ChatGPT.

2️⃣ مبرمج آخر كان يعمل على برنامج مصدري لتمييز القطع المعيبة Defective Parts في قسم أشباه الموصلات. شارك الكود البرمجي أيضا مع نظام ChatGPT لتحسينه.

3️⃣ موظف ثالث استعان بنظام ChatGPT لتجهيز محضر اجتماع داخلي. سجل وقائع الاجتماع، واستعان بنظام آخر لتحويل مجريات الاجتماع إلى وثيقة مكتوبة، ومن ثم زود النظام بها لترتيبها وتنسيقها وإعداد عرض تقديمي لها. ✅️ باستخدام نظام ChatGPT، موظفو سامسونغ وضعوا بعضا من البيانات الحساسة لشركة سامسونغ تحت تحكم شركة OpenAI. بالنهاية البيانات نُقِلَت وخُزِنَت في خوادم أخرى ليس لشركة سامسونغ سيطرة عليها. يوجد احتمال بأن يزود النظام هذه البيانات لأي مستخدم آخر سأل عن أشباه الموصلات. طالما البيانات انتقلت إلى خوادم أخرى، الاحتمالات مفتوحة على مصراعيها.

✅️ اليوروبول والجهات الأمنية في المملكة المتحدة كانت قد حذرت المستخدمين من مشاركة بيانات حساسة مع نظام ChatGPT. وحتى أن الشركة المصنعة OpenAI أشارت إلى هذا التحذير، وأن البيانات المشاركة قد تستغل لغايات تدريب وتطوير النظام. علاوة على ذلك، شركات أخرى مثل أمازون و JPMorgan طلبت من موظفيها صراحة الحذر عند استخدام ChatGPT.

✅️ بعد التسريبات، استهلت شركة سامسونغ تطبيق بعض الإجراءات لمنع تكرار الحوادث من جديد، ومنها تحديد حجم الأسئلة المقدمة لنظام ChatGPT، مع احتمالية حجب النظام بالكامل عن موظفي الشركة. علما أن سامسونغ تعمل حاليا على نظام مشابه يعتمد على الذكاء الصناعي للاستخدام الداخلي.

🔶️ حوادث التسريبات في شركة سامسونغ وقعت جميعها خلال فترة قصيرة نسبيا (قرابة العشرين يوما)؛ مما يشي عن قلة وعي الموظفين بكيفية استخدام نظام ChatGPT. كما يبدو أن إجراءات التثقيف والتدريب للموظفين لم تكن بالشكل الكافي، ولعل الشركة اندفعت بعض الشيء مع حمى الذكاء الصناعي التي ضربت أرجاء العالم على حين غرة. إن كان هناك درس مستفاد من قصة سامسونغ مع نظام ChatGPT، فهو أهمية تحديث برامج التوعية والتدريب الأمني لتشمل الطرق المثلى لاستغلال نظام ChatGPT. الأبواب باتت مشرعة أمام التطبيق، ولا أحد يريد أن يرى بيانات شركته الحساسة إجابة على سؤال مستخدم آخر في بقعة أخرى من الأرض، والعبرة لمن أراد.

أكتب تعليقـكـ هنــا

لن يتم نشر عنوان بريدك الإلكتروني.

يستخدم هذا الموقع ملفات تعريف الارتباط لتحسين تجربتك. سنفترض أنك موافق على ذلك ، ولكن يمكنك إلغاء الاشتراك إذا كنت ترغب في ذلك. قبول قراءة المزيد