قد تظن أن محادثاتك مع ChatGPT تظل سرية وخاصة، لكنها في الحقيقة ليست محمية بقوة القانون كما هو الحال مع الأسرار التي ترويها لطبيبك النفسي أو محاميك.



قد تظن أن محادثاتك مع ChatGPT  تظل سرية وخاصة، لكنها في الحقيقة ليست محمية بقوة القانون كما هو الحال مع الأسرار التي ترويها لطبيبك النفسي أو محاميك. 

أن أي أمر تبوح به في دردشتك مع روبوتات الذكاء الاصطناعي قد يكون عرضة للمراجعة القانونية إذا طُلب ذلك في المحاكم. 

الأمر هنا ليس مجرد احتمال بعيد؛ فهناك بالفعل قضايا قانونية جارية قد تجبر الشركة على تسليم سجلات الدردشة بالكامل – حتى تلك الاعترافات الدقيقة التي تظن أنها لن تغادر شاشة هاتفك. اللافت أن منصات الذكاء الاصطناعي – باستثناء بعض الحسابات المدفوعة للشركات والجامعات – لا تعتمد تشفيراً على مستوى عالٍ يحصّن تفاعلات المستخدمين.. 

ما يعني أن حواراتك قد تُخزّن وتظل قابلة للاستدعاء فترة طويلة حتى في حال اعتقادك أنها حُذفت. كل ذلك يدفعنا لإعادة النظر في طريقة تفاعلنا مع هذه الروبوتات الذكية: من الأفضل أن نمتنع عن مشاركة أي تفاصيل حساسة أو معلومات قد يُساء استخدامها لاحقاً، تماماً كما نتوخى الحذر في رسائل البريد الإلكتروني أو عبر وسائل التواصل الاجتماعي. 

في ظل هذا الواقع، ربما يكون من الأدق استبدال وصف “حوار خاص” بتعبير مثل “تفاعل قابل للمراجعة”، وألا ننسى أهمية المطالبة بتشريعات مستحدثة تحمي خصوصية بياناتنا وتضبط العلاقة بين الذكاء الاصطناعي والمستخدم. 

إن الوعي بهذه القضايا والضغط من أجل حماية قانونية يجدّد العلاقة بين التقنية وحدود الأمان الرقمي لصالح الجميع.


إرسال تعليق

1 تعليقات