هل يمكننا حقًا التفريق بين الحديث مع إنسان أو ذكاء اصطناعي؟ سؤال قديم يتردد عند تقييم ذكاء الحواسيب، يعود إلى اختبار تورينغ عام 1950، الذي حوّل التفكير الفلسفي إلى اختبار تجريبي. الاختبار يعتبر الحاسوب “ذكيًا” إذا كان سلوكه مماثلاً للإنسان. لكن عندما قيل إن روبوت محادثة اجتاز الاختبار عام 2014، أثار ذلك جدلاً بدلًا من الاحتفاء. اختبار تورينغ هو “لعبة تقليد” يتواصل فيها شخص مع إنسان وحاسوب عبر النص، ثم يحدد أيهما الإنسان. يقول د. كاميرون جونز: “إذا لم نميز بين البشر والآلات، فلا أساس للقول إن الإنسان يفكر والآلة لا”. توقع تورينغ أن تجتاز الحواسيب الاختبار بحلول عام 2000. في 2014، أقنع روبوت “يوجين غوستمان” 33% من الحكام بأنه إنسان، لكن د. ماركوس بانتسار قال إنه “لم يلعب بنزاهة”، إذ تقمص شخصية فتى أوكراني. في 2025، صُنّف “شات جي بي تي 4.5” على أنه إنسان في 73% من الحالات، بينما “لاما 3.1” في 56%. يرى جونز أن هذه النماذج اجتازت الاختبار، لكن باحثين آخرين يشككون في قدرة الحواسيب على التفكير الحقيقي. في عام 1980، طرح الفيلسوف جون سيرل “حجة الغرفة الصينية”، التي تفترض أن الحاسوب قد يعطي ردودًا مناسبة دون فهم المعنى. يقول جورج مابوراس إن اختبار تورينغ يقيس قدرة الآلة على محاكاة البشر، لا ذكائها الحقيقي. يرى بانتسار أن الاختبار يركز على خداع المحكم، واقترح اختبارًا بديلاً يعتمد على المجتمع. يرى مابوراس أن الذكاء الاصطناعي العام سيتحقق عندما تتمكن الآلة من “ابتكار معرفة علمية جديدة وشرحها”. يرى جونز أن اختبار تورينغ لا يزال ذا صلة، لأنه يختبر “نوعًا من الذكاء الديناميكي والمرن”. يرى بانتسار أن التمييز بين البشر والذكاء الاصطناعي سيصبح مستحيلاً، ما يستدعي أطرًا قانونية تلزم أنظمة الذكاء الاصطناعي بالإفصاح عن هويتها. يرى جونز أن قياس قدرة الآلة على محاكاة الإنسان أمر مهم، لأننا نقضي وقتًا طويلاً في التفاعل مع أشخاص عبر الإنترنت، وقد نجد أنفسنا نتجادل مع آلة دون أن ندري.