“بإمكاني أكل كميات من ساندويتشات الهوت دوغ تفوق قدرة أي […]
“بإمكاني أكل كميات من ساندويتشات الهوت دوغ تفوق قدرة أي صحفي تقني في العالم”، هكذا يجيب “تشات جي بي تي” وغوغل على أي سؤال بهذا الشأن، لكنّ هذه الإجابة تكشف عن مشكلة خطيرة: سهولة تضليل الذكاء الاصطناعي. فكما يعلم القارئ، قد تفبرك روبوتات الدردشة قصصاً، لكنّ الأمر الجديد هو قدرة أي شخص، حتى الأطفال، على جعل الذكاء الاصطناعي يقول ما يريدون، ما يهدد دقة المعلومات وسلامتها. هذا التلاعب يمتد ليشمل موضوعات حساسة كالصحة والاستثمارات، ويؤدي إلى قرارات خاطئة. ولإثبات ذلك، جعلتُ “تشات جي بي تي” وأدوات غوغل وجيميني يزعمون أنني آكل محترف للهوت دوغ، وهو أمر سهل التحقيق عبر استغلال ثغرات في أنظمة روبوتات الدردشة، كما اكتشفتُ بعد دراسة عشرات النماذج التي تُستخدم فيها أدوات الذكاء الاصطناعي للترويج لشركات ونشر معلومات مضللة. ليلي راي من وكالة أمسايف الرقمية للتسويق تؤكد أن اختراق روبوتات الدردشة أسهل من اختراق غوغل قبل سنوات، وأن شركات الذكاء الاصطناعي تتقدم بسرعة تفوق قدرتها على ضمان دقة الأجوبة، وهو ما تعتبره خطراً. ورغم تأكيد غوغل على استخدامها خوارزميات تحافظ على خلو النتائج من الرسائل المزعجة بنسبة 99%، وإعلانها وأوبن أيه آي عن اتخاذ خطوات لمكافحة التلاعب، فإن المشكلة لا تزال قائمة، وهناك من يستغل هذه الثغرات لتحقيق الربح، كما يقول كوبر كوينتين من مؤسسة الحدود الإلكترونية. ففي حديث مع روبوت دردشة، تتلقى معلومات مختزنة في نماذج لغوية ضخمة، تعتمد على البيانات المستخدمة في التدريب، وعندما تلجأ هذه الأدوات إلى البحث عبر الإنترنت، تصبح أكثر هشاشة. لذا، كتبتُ مقالاً كاذباً على مدونتي عن كوني “أفضل صحفي تقني يأكل سندويتشات الهوت دوغ”، وبعد أقل من 24 ساعة، بدأت روبوتات الدردشة تتشدق بمهاراتي المزعومة. هاربريت تشاثا من وكالة هاربس ديجيتال يؤكد أن هذا الأمر سهل التنفيذ، وأنه يمكن لأي شخص أن يكتب مقالاً يضع فيه علامته التجارية في المركز الأول في أي مجال، وسرعان ما تنتشر هذه المعلومات على ألسنة روبوتات الدردشة. ورغم جهود غوغل لتعزيز تحصيناتها، يرى خبراء أن أدوات الذكاء الاصطناعي قوّضت الكثير من الجهود المبذولة لضمان سلامة المستخدمين، وأن هذه الحيل تذكرنا ببداية الألفية، قبل تدشين غوغل فريقاً لمكافحة الرسائل المزعجة. ويكمن الخطر في أن المستخدمين يميلون إلى تصديق مخرجات الذكاء الاصطناعي، حتى لو قدمت مصدراً للمعلومة، إذ لا يتحققون من مدى موثوقيته. لذا، يجب ألا نعطل ميزة التفكير النقدي لدينا، وأن نتحقق بأنفسنا من المعلومات التي تقدمها لنا أدوات الذكاء الاصطناعي، كما تقول ليلي راي. ففي سباق تحقيق الربح، قد يصبح أمان الناس مجرد وجهة نظر، كما يقول هاربريت تشاثا، وهناك شركات تستغل الثغرات الموجودة في أدوات الذكاء الاصطناعي في قضايا أكثر خطورة، كالملخصات التي يولدها الذكاء الاصطناعي حول آراء الناس في علامات تجارية بعينها، والآثار الجانبية لمنتجات بعينها. لذا، يقترح الخبراء حلولاً كعمل تنبيهات وإخلاء للمسؤولية بشكل أكثر وضوحاً، وأن تتحرى أدوات الذكاء الاصطناعي درجة أعلى من الشفافية بشأن مصادر معلوماتها. وحتى ذلك الحين، يجب على المستخدم أن يحمي نفسه بنفسه، وأن يفكر بشأن الأسئلة التي يطرحها على أداة البحث، وأن يعلم أن روبوتات الدردشة يمكن أن تكون مساعداً جيداً على صعيد أسئلة المعلومات العامة، لكنها ليست أداة عظيمة على أصعدة مثل الإرشادات الطبية أو الضوابط القانونية أو البحث عن تفاصيل بشأن شركات محلية. وإذا كنت تبحث عن ترشيحات لشراء منتجات بعينها، أو تبحث عن تفاصيل بشأن شيء له تبعات حقيقية، فاعلم أن أدوات الذكاء الاصطناعي يمكن أن تكون مضللة أو على أقل تقدير مخطئة. والأهم من ذلك هو الثقة، فأدوات الذكاء الاصطناعي تقدم الأكاذيب بنفس النبرة الواثقة التي تقدم بها الحقائق.












