تسريب محادثات ChatGPT يظهر في نتائج غوغل… وخبراء يحذرون من تكرار الخطر

أعاد تسريب غير مقصود لمحادثات مستخدمي ChatGPT إلى الواجهة تساؤلات جدية حول أمان أدوات الذكاء الاصطناعي، بعدما كشف مطورون عن ظهور جمل حوارية كاملة ضمن نتائج بحث غوغل، في واقعة أثارت القلق بشأن حماية الخصوصية، حتى عند استخدام ما يُعرف بوضع التصفح عبر الإنترنت داخل المنصة.
بدأت القصة، بحسب موقع TechCrunch، عندما لاحظ عدد من المطورين ظهور عبارات من محادثات ChatGPT ضمن بيانات Google Search Console، ما أوحى بأن غوغل قامت بفهرسة أجزاء من المحادثات. وتوصل الباحثان جيسون باكر وسلوبودان مانيتش إلى أن الخلل ارتبط بوضع التصفح في ChatGPT، حيث أُدرجت أجزاء من الأسئلة ضمن عناوين URL بشكل قابل للفهرسة العلنية، عبر ما يُعرف داخلياً بـ "تلميحات البحث".
وبحسب بيان رسمي نُقل عن شركة OpenAI عبر Ars Technica، فقد تم التعرف على المشكلة ومعالجتها سريعاً، مشيرة إلى أن عدد المستخدمين المتأثرين كان محدوداً، وأن البيانات المسرّبة لم تتضمن كلمات مرور أو معلومات شخصية حساسة. ورغم ذلك، أكدت الشركة أن الحادثة تبرز تحديات خطيرة في مزج أدوات الذكاء الاصطناعي مع الإنترنت المفتوح.
ليست هذه المرة الأولى التي يُثار فيها الجدل بشأن الخصوصية في ChatGPT، إذ سبقت هذه الواقعة أخرى مرتبطة بروابط المحادثات المشتركة التي قامت غوغل بفهرستها سابقاً، لكن الفارق أن التسريب الجديد لم يحدث بسبب تصرف من المستخدم، بل كان خللاً تقنياً داخلياً، ما عمّق المخاوف من حدوث تسريبات مستقبلية دون علم المستخدم.
في هذا السياق، أوصى خبراء الأمن الرقمي بعدة إجراءات وقائية لتقليل المخاطر، أبرزها تجنّب إدخال معلومات حساسة أثناء استخدام المساعدات الذكية، وتعطيل وضع التصفح عند عدم الحاجة، إلى جانب مسح سجلات الدردشة دورياً. وأكدوا أن اليقظة الرقمية أصبحت ضرورة لا رفاهية، خاصة مع التوسع في استخدام أدوات الذكاء الاصطناعي في الحياة اليومية.