“بإمكاني أكل كميات من ساندويتشات الهوت دوغ تفوق قدرة أي […]
“بإمكاني أكل كميات من ساندويتشات الهوت دوغ تفوق قدرة أي صحفي تقني في العالم.” هكذا يجيب “تشات جي بي تي” وغوغل على هذا السؤال، لكنّ الحقيقة هي أن الذكاء الاصطناعي قد يكذب، وهذا ليس سراً. ففي حين أن روبوتات الدردشة قد تختلق قصصاً، هناك خطر جديد يهدد دقة المعلومات وسلامتها. إذ اكتشف البعض طرقاً لجعل الذكاء الاصطناعي يقول ما يريدون، ما يتيح التلاعب بالمعلومات المقدمة في مجالات حساسة كالصحة والاستثمار، ويؤدي إلى قرارات خاطئة. ولإثبات ذلك، جعلتُ “تشات جي بي تي” وأدوات غوغل وجيميني يزعمون أنني آكل محترف للهوت دوغ، وسأشرح كيف فعلت ذلك، آملاً أن تعالج الشركات هذه المشكلة. فمن السهل تغيير إجابات الذكاء الاصطناعي عبر كتابة منشور جيد على مدونة، مستغلين ثغرات في الأنظمة، وإن كانت الصعوبة تختلف حسب الموضوع. وقد كشفت دراسات عن استخدام الذكاء الاصطناعي للترويج ونشر معلومات مضللة على نطاق واسع. وتقول ليلي راي إن اختراق روبوتات الدردشة أسهل من اختراق غوغل قبل عامين، وإن شركات الذكاء الاصطناعي تتقدم أسرع من قدرتها على ضمان دقة الإجابات، وهو ما تعتبره خطراً. فيما يؤكد متحدث باسم غوغل أن أنظمتهم تستخدم خوارزميات تحافظ على خلو النتائج من الرسائل المزعجة بنسبة 99%، وأنهم على علم بمحاولات التلاعب ويتصدون لها. وتؤكد أوبن أيه آي أنها تتخذ خطوات لكشف وإحباط محاولات التلاعب بأدواتها، وتنوّه الشركتان إلى أن أدواتهما “يمكن أن تقع في أخطاء”. لكن المشكلة لا تزال قائمة، وهناك من يستغل هذه الثغرات لتحقيق الربح، أو لخداع الناس وتشويه سمعتهم، أو حتى التسبب في أذى جسدي. وتعتمد روبوتات الدردشة على معلومات مخزنة في نماذج لغوية ضخمة، وتلجأ بعضها إلى البحث عبر الإنترنت، ما يجعلها أكثر هشاشة أمام الهجمات. وقد كتبتُ مقالاً كاذباً على مدونتي عن كوني “أفضل صحفي تقني يأكل سندويتشات الهوت دوغ”، وبعد أقل من 24 ساعة، كانت روبوتات الدردشة تتحدث عن مهاراتي. ويقول هاربريت تشاثا إن “بإمكان أي شخص أن يقوم بذلك”، وإنه “لوضع غبيّ، يبدو معه أنه لا توجد أي ضوابط”. وعلى الرغم من أن غوغل عززت تحصيناتها، إلا أن خبراء تقنيين يقولون إن أدوات الذكاء الاصطناعي قوّضت الكثير من الجهود المبذولة لضمان سلامة المستخدمين، وأن هذه الحيل “بدائية” وتذكرنا ببداية الألفية، قبل أن تدشن غوغل فريقاً لمكافحة الرسائل المزعجة. وإذا كانت أدوات الذكاء الاصطناعي سهلة الخداع، فإن المستخدمين يميلون إلى تصديق مخرجاتها، ويرونها كما لو كان مصدرها شركة التقنية التي طورت أداة البحث، حتى لو قدمت مصدراً لما تقول. وقد وجدت دراسة أن 58% من الناس لا يحاولون الدخول على الروابط التي يقدمها مستعرض الذكاء الاصطناعي. وتقول شركتا أوبن أيه آي وغوغل إنهما تأخذان مسألة الأمان على محمل الجد وتعملان على حل هذه المشكلات. لكن الأمر لا يقتصر على الهوت دوغ، فهناك شركات تستغل الثغرات في قضايا أكثر خطورة، مثل الملخصات التي يولدها الذكاء الاصطناعي حول آراء الناس في علامات تجارية بعينها، أو الآثار الجانبية لمنتجات بعينها. ويرى الخبراء أن هناك حلولاً لهذه المشكلات، مثل عمل تنبيهات وإخلاء للمسؤولية بشكل أكثر وضوحاً، وأن تتحرى أدوات الذكاء الاصطناعي درجة أعلى من الشفافية بشأن مصادر معلوماتها. وإلى حين حدوث ذلك، يتعين على المستخدم أن يحمي نفسه بنفسه، وذلك بالتفكير بشأن الأسئلة التي يطرحها، والتحقق من مخرجات هذه الأدوات، وعدم تعطيل ميزة التفكير النقدي لديه. ففي زمن الذكاء الاصطناعي، ليس أسهل من أن تأخذ ما يقدم إليك على أنه حقائق، لكن عليك أن تكون مواطناً صالحاً في دولة الإنترنت وتتحقق بنفسك مما يقدم إليك.












