تسرّب بيانات مستخدمي "شات جي بي تي".. هل بدأت مشكلات الخصوصية في عصر الذكاء الاصطناعي؟

يبدو أن أولى مشكلات الخصوصية في عصر الذكاء الاصطناعي الجديد بدأت في الظهور، بعدما أكدت شركة "أوبن إيه آي" (OpenAI)، يوم الجمعة 24 مارس/آذار، أن خطأ تقنيا تسبب، على مدار 9 ساعات، في تسرّب عناوين سجلات المحادثات لبعض مستخدمي روبوت المحادثة "شات جي بي تي" (ChatGPT) خلال يوم الاثنين الماضي الموافق 20 مارس/آذار.
لكن الأمر لم يتوقف عند بعض عناوين المحادثات فحسب، بل وصل إلى تسريب بعض البيانات المهمة والحساسة للمستخدمين، التي تضمنت بعض أرقام بطاقات الائتمان لمشتركي خدمة "شات جي بي تي بلس" المدفوعة التي تقدمها الشركة!
تسرّب بيانات حساسة!
عندما تستخدم روبوت المحادثة "شات جي بي تي" وتسأله سؤالا عن أي شيء، فإنه يسجل ويؤرشف محادثاتك السابقة ويعرضها لك في شريط على الجانب الأيسر، ليصبح هذا مرجعا لك وسجلا لكل المحادثات التي أجريتها مع الروبوت، لكن المحادثات على الجانب الأيسر لا تظهر بالكامل، بل ما يظهر هو عنوان المحادثة فقط، ويمكنك الوصول إليها بالضغط على هذا العنوان.
في صباح يوم الاثنين الماضي، قبل أسبوع تقريبا، لاحظ بعض المستخدمين أن الشريط على الجانب الأيسر يعرض لهم عناوين محادثات سابقة غير مألوفة بالنسبة لهم، وربما بلغات أخرى لا يتحدثونها أصلا، وعلى ما يبدو أنها عناوين محادثات لمستخدمين آخرين.
If you use #ChatGPT be careful! There's a risk of your chats being shared to other users!
Today I was presented another user's chat history.
I couldn't see contents, but could see their recent chats' titles.#security #privacy #openAI #AI pic.twitter.com/DLX3CZntao— Jordan L Wheeler (@JordanLWheeler) March 20, 2023
نتيجة لذلك، قررت الشركة إيقاف خدمة الروبوت عن العمل ذلك اليوم، لتحقق في الأمر وتحاول إصلاحه، ثم كان الاكتشاف بعدها أن هناك بيانات خاصة أكثر خطورة تسرّبت، إذ ذكرت الشركة، بعد إجراء التحقيق، أنه كان بإمكان بعض المستخدمين رؤية الاسم الأول والأخير لمستخدم آخر نشط، وعنوان بريده الإلكتروني، وعنوان الدفع والأرقام الأربعة الأخيرة فقط من رقم بطاقة الائتمان، بجانب تاريخ انتهاء صلاحيتها. لكن الشركة تؤكد أن أرقام البطاقات الكاملة لم تُكشف أو تُسرب لحُسن الحظ، وأن نسبة المستخدمين الذين تسربت بياناتهم المالية، من المشتركين في خدمتها المدفوعة، كانت 1.2% فقط. وأعلنت الشركة أنها تواصلت مع المستخدمين المتضررين لإخطارهم باحتمال تعرض بيانات بطاقات الدفع الخاصة بهم للتسريب.
We took ChatGPT offline Monday to fix a bug in an open source library that allowed some users to see titles from other users’ chat history. Our investigation has also found that 1.2% of ChatGPT Plus users might have had personal data revealed to another user. 1/2
— OpenAI (@OpenAI) March 24, 2023
وفقا لما ذكرته شركة "أوبن إيه آي"، حدثت عملية تسرب بيانات الدفع غير المقصودة عندما انتقل أحد المستخدمين إلى صفحة حسابه، ومنها إلى اختيار إدارة الاشتراك في الخدمة، خلال الإطار الزمني للخطأ، الذي قدَّرته الشركة بنحو 9 ساعات. وهنا بدلا من أن يرى تفاصيل اشتراكه الشخصي، يمكنه أن يرى معلومات لمستخدم آخر مشترك في خدمة "شات جي بي تي بلس"، بشرط أن يكون هذا المستخدم نشطا ويستخدم الخدمة في الوقت نفسه. كما ذكرت أيضا احتمالية حدوث هذا الأمر سابقا قبل يوم 20 مارس/آذار، لكنها لا تملك تأكيد هذا. (1) أما بالنسبة لكيفية حدوث هذا الأمر، فإنها تذكر أن المشكلة حدثت بسبب خطأ في عملية التخزين المؤقت للمعلومات (cache).
خطأ غير مقصود
لفهم ما حدث، علينا أن نشير إلى أن الشركة تستخدم برمجية باسم "ريدس" (Redis) لتخزين معلومات المستخدمين مؤقتا، تلك البرمجية تعمل ببساطة في تخزين هياكل البيانات بالذاكرة، وهي شائعة الاستخدام ومفتوحة المصدر، وتُستخدم قاعدةَ بيانات وذاكرةَ تخزين مؤقت ووسيطا لنقل الرسائل، وتكمن أهميتها في تسريع انتقال البيانات التي نريد الوصول إليها بصورة متكررة، مثل معلومات المستخدم. (2)
في بعض الأحيان قد يحدث خطأ ما، ويؤدي طلب مُلغى من البرمجية إلى إرجاع بيانات تالفة لطلب بيانات مختلف. دعنا نشرح الأمر بمثال، لنفترض أن هناك مستخدما اسمه "نجيب السمنّودي"، ومستخدما آخر اسمه "حسن الششماوي"، كلُّ منهما يملك حسابه الخاص على التطبيق نفسه، في هذه الحالة سيكون التطبيق هو "شات جي بي تي".
يستخدم التطبيق كما ذكرنا برمجية "ريدس" لتخزين معلومات مؤقتة حول حساب كلٍّ منهما، مثل بيانات الدفع وسجل المحادثات. هنا يقرر "السمنّودي" أن يفتح التطبيق ويسجل الدخول إليه، يستدعي التطبيق معلومات حساب "السمنّودي" من برمجية "ريدس"، ثم يخزنها في ذاكرة التخزين المؤقت للتطبيق نفسه، حتى يتمكن من الوصول إليها بسرعة لاحقا إذا لزم الأمر. وفي الوقت نفسه، يقرر "الششماوي" فتح التطبيق أيضا ويسجّل دخوله، فيكرر التطبيق العملية نفسها، ويستدعي بيانات "الششماوي" من البرمجية ويحتفظ بها في ذاكرة التخزين المؤقت.
الآن، قرر "السمنّودي" أن يعرض سجل المحادثات الخاصة به، هنا يبحث التطبيق في ذاكرة التخزين المؤقت لكي ينفذ الطلب ويعثر على سجل محادثاته، ولكن لسبب ما، يُلغى طلب برمجية "ريدس" قبل أن يكتمل. في المعتاد سيقول التطبيق إن هناك خطأ ما، وهذا ليس ما طلبته، هنا وبدلا من الإبلاغ عن حدوث الخطأ، يعرض التطبيق سجل محادثات "الششماوي" ليراه "السمنّودي"، رغم أنه لم يطلبه أصلا. وهذا ما يحدث إن طلب "الششماوي" بيانات الدفع الخاصة به، فإن الطلب لا يكتمل، ويقوم التطبيق بعرض بيانات الدفع الخاصة بـ"السمنّودي" ليراها "الششماوي" وهو لم يطلبها أصلا!
لهذا كان بإمكان المستخدمين رؤية بيانات الدفع للمستخدمين الآخرين وعناوين سجل المحادثات، ببساطة لأنهم كانوا يتلقون بيانات ذاكرة التخزين المؤقت التي كانت من المفترض أن تذهب إلى شخص آخر ولكنها لم تفعل بسبب إلغاء الطلب، ولهذا أيضا كان تأثير الخطأ على المستخدمين النشطين في الوقت نفسه، لأن مَن لا يستخدم التطبيق لن تُخزن بياناته مؤقتا، لأنه لن يطلبها من الأساس.
ما حوّل الأمر إلى مشكلة أكبر هو أنه في صباح يوم الاثنين أجرت شركة "أوبن إيه آي" تغييرا على الخادم الخاص بها، تسبب بطريق الخطأ في زيادة الطلبات المُلغاة من برمجية "ريدس"، مما زاد من احتمالية حدوث الخطأ وإعادة بيانات من ذاكرة التخزين المؤقت إلى أشخاص آخرين لم يطلبوها من الأساس!
قد تكون لحادثة تسريب بيانات مستخدمي "شات جي بي تي" عدّة آثار جانبية على الأنظمة والأدوات الجديدة التي تعتمد على الذكاء الاصطناعي التوليدي، وأولها هو فقدان ثقة المستخدم في تلك المنصات. ولهذا اعترفت الشركة سريعا بالإخفاق والفشل في هذه الحادثة، وقدمت اعتذارها للمستخدمين ومجتمع "شات جي بي تي" بأكمله، وأكدت أنها ستعمل على إعادة بناء تلك الثقة من جديد. (3)
we had a significant issue in ChatGPT due to a bug in an open source library, for which a fix has now been released and we have just finished validating.
a small percentage of users were able to see the titles of other users’ conversation history.
we feel awful about this.
— Sam Altman (@sama) March 22, 2023
لكن هل تكون هذه الحادثة بمنزلة البداية لمشكلات خصوصية أكبر وأخطر في عالم ستحكمه أدوات الذكاء الاصطناعي قريبا، والأخطر أن تلك الأدوات تتعلق بمعلوماتنا الشخصية، وبأعمالنا والمهام الحساسة المرتبطة بها؟
تخوف مشروع
أشار المركز الوطني للأمن السيبراني بالمملكة المتحدة (NCSC) إلى أن روبوت المحادثة "شات جي بي تي"، وغيره من نماذج اللغة الكبيرة الأخرى، لا يضيف حاليا المعلومات التي يكتبها المستخدم، في سؤاله للروبوت، تلقائيا إلى البيانات التي يستخدمها النموذج في التعلم، أي إن من المفترض أن إضافة أي معلومات لأي سؤال لن يؤدي إلى دمج تلك البيانات الخاصة في بيانات "شات جي بي تي"، ولكن المشكلة أن السؤال، والبيانات المكتوبة فيه، سيكون متاحا وواضحا أمام شركة "أوبن إيه آي" نفسها، أي الشركة المطورة للنموذج اللغوي. فربما لا يستخدم النموذج هذه البيانات حالا، لكن الشركة قد تستخدمها مستقبلا في تدريبه بأي شكل من الأشكال. (4)
الخطر الآخر هنا أن مع زيادة استخدام تلك النماذج، فإن الخطر في تسريب تلك البيانات يزداد معها أيضا، وهو ما حدث فعلا، لكن الأمر لم يتطور وتتسرب البيانات بأكملها، أو تخرج عن مستخدمي "شات جي بي تي". لكن هذا وارد الحدوث بالطبع، وربما يقع في يد أطراف أخرى تستفيد منه مثل جماعات القراصنة "الهاكرز" المنتشرة حاليا في كل مكان.
هذا التخوف جعل شركات كبرى تحذر موظفيها من مشاركة أي معلومات حساسة تخص العمل مع روبوت "شات جي بي تي"، مثلا في شهر يناير/كانون الثاني الماضي، حذرت المستشارة القانونية في شركة أمازون الموظفين من تزويد شات جي بي تي "بأي معلومات سرية من أمازون"، بما في ذلك الأكواد الخاصة بالشركة التي يعمل عليها الموظفون، لأن بعض المبرمجين استخدموا روبوت "شات جي بي تي" في اكتشاف الأخطاء البرمجية في الأكواد التي يكتبونها. وأكدت المستشارة على الموظفين اتباع سياسات الشركة الحالية الخاصة بالسرية وتضارب المصالح، نظرا لاكتشاف الشركة أن بعض ردود روبوت "شات جي بي تي" تبدو مشابهة لبيانات داخلية من أمازون. (5)
وفي فبراير/شباط الماضي، قرر بنك "جي بي مورجان" (JPMorgan) منع موظفيه من استخدام روبوت "شات جي بي تي"، متخوفا من الأمر نفسه، كما حظرت شركة الاتصالات الأميركية "فيريزون" (Verizon) روبوت "شات جي بي تي" من أنظمتها الأساسية، قائلة إنها ربما تفقد ملكية بيانات العملاء، أو الكود المصدري الذي يكتبه موظفوها في الأسئلة لدى الروبوت. (6)
هذا ليس صديقك

وإن نظرنا إلى الصورة العامة، يحتفظ روبوت "شات جي بي تي" بسجل كل محادثة تتحدث بها معه، وربما يمكنه أن يتعلم منها الكثير عن شخصيتك واهتماماتك وطبيعة عملك وغيرها من الأمور الشخصية. الأمر نفسه قد ينطبق أيضا على محركات البحث الحالية التي نستخدمها، مثل غوغل وبينغ، ولكن الاختلاف هنا يكمن في طريقة تفاعل روبوت المحادثة مع المستخدم بأسلوب جديد تماما عن محركات البحث التقليدية.
يتميز روبوت المحادثة بقدرته على جمع المزيد من المعلومات الشخصية عبر انخراط المستخدم معه في محادثة طويلة، ببساطة لأنه مُصمم لتلك الغاية أصلا؛ أن يبدو وكأنك تتحدث مع شخص آخر تعرفه، كأحد أصدقائك مثلا، وهو ما يعني سهولة نسيانك أن هذا مجرد نظام ذكاء اصطناعي، قائم على جمع وتحليل البيانات، والرد بناء على الاحتمالات الأقرب. في هذه الحالة، ربما تنجرف معه وتكشف عن أشياء ومعلومات لن تكتبها أبدا في محرك بحث، والأخطر أن تلك المعلومات الشخصية مرتبطة الآن ببريدك الإلكتروني ورقم هاتفك، وربما تُستخدم لتدريب النموذج ويمكن لمطوريه أن يعرفوها.
في النهاية، تذكرنا حادثة تسرّب بيانات مستخدمي "شات جي بي تي" بأمر مهم للغاية: رغم أن الذكاء الاصطناعي يمكنه أن يسهل حياتنا، ويقدم لنا حلولا إبداعية أكثر، فإنه قد يخلق أيضا نقاط ضعف شديدة الخطورة إذا لم تتمكن الشركات المطورة له من تأمينه بصورة صحيحة.
بينما من جانبنا نحن كمستخدمين، يجب أن نضع في اعتبارنا حساسية المعلومات التي نشاركها مع منصات الذكاء الاصطناعي، وأن نبقى دائما على اطلاع بالمخاطر المحتملة لمشاركة تلك المعلومات، أو أن نعامله ببساطة على أنه شخص غريب نتحدث معه، ولا نمنحه معلومات سرية أو حساسة تخص أعمالنا أو حياتنا الشخصية.
———————————————————————–
المصادر:
(1) March 20 ChatGPT outage: Here’s what happened
(2) Redis
(3) المصدر نفسه (1)
(4) ChatGPT and large language models: what’s the risk?
(5) Amazon warns employees not to share confidential information with ChatGPT