الخبر الحصري.. ChatGPT‏.. هل هو روبوت محادثة ذكى كالبشر أم غبى؟

بعد أيام قليلة من إعلان ‏Google‏ و‏Microsoft‏ أنهما سيقدمان محركات بحث تم ‏إنشاؤها بواسطة تقنيات روبوتية تعتمد على برمجيات ذكاء اصطناعي قادرة على ‏إنتاج نصوص تحاكي ما يصنعه البشر، شعر الكثيرون بالقلق من أن المساعد ‏الصوتي المدعوم بالذكاء الاصطناعي والمتاحة بالمنازل لدينا لا يمكن الوثوق بهم. ‏

بصفة عامة، حذر باحثو الذكاء الاصطناعي في ‏Google‏ الشركة من أن روبوتات ‏الدردشة ستكون “ببغاوات عشوائية” (من المحتمل أن تصرخ على أشياء خاطئة أو ‏غبية أو مسيئة) و”عرضة للهلوسة” (من شأنها اختلاق الأشياء فقط ). ‏

وكتب فريق من ‏DeepMind، شركة الذكاء الاصطناعي المملوكة لشركة ‏Alphabet، العام الماضي في عرض تقديمي عن المخاطر المحتملة: “روبوتات ‏المحادثة هذه ليست ذكية في الواقع .. إنهم أغبياء يكذبون”.

ولم يستغرق الأمر وقتًا طويلاً حتى تثبت روبوتات المحادثة هذه النقطة، فقد أظهر ‏إعلان الأسبوع الماضي لروبوت ‏Google‏ الذي أطلقت عليه اسم ‏Bard، إجابات ‏فاشلة. في غضون ذلك، فشلت الإجابات التي قدمها روبوت ‏Bing، سيدني، في ‏الوقوف حتى أمام عمليات التحقق من المعلومات الأولية والبدائية.‏

يرى محللوم أن روبوتات الدردشة هي محركات هراء مصممة لتقول الأشياء بيقين ‏لا جدال فيه ونقص كامل في الخبرة، فلماذا نشتري هراءهم؟ ‏

بصراحة، لا أحد يعرف حقًا سبب تصديق أي شخص لأي شيء. بعد آلاف السنين ‏من النقاش، لم يتفق الفلاسفة وعلماء النفس وعلماء الأعصاب الرائدون في العالم ‏حتى على آلية لسبب تصديق الناس للأشياء، أو حتى ماهية المعتقدات. لذلك من ‏الصعب معرفة كيفية عملها، أو لماذا يكون أحد الأشياء أكثر تصديقًا من الآخر. ‏لكن هناك بعض التكهنات حول سبب سقوطنا في غرام تطبيق ‏ChatGPT‏: مثلاً ‏نحن البشر نحب شخصًا أنيقًا يتمتع بأوراق اعتماد تبدو مثيرة للإعجاب، وهذا ما ‏تبديه تلك التطبيقات، بل مع مرور الوقت، ستصبح الروبوتات أكثر تعقيداً في ‏خداعنا.‏
أرقام رئيسة
على مدار العقدين الماضيين، كان هناك الكثير من الأبحاث حول سبب اعتقاد ‏الناس بالمعلومات الخاطئة. افترض الكثيرون أننا سنواجه في الغالب خيالًا يتظاهر ‏بأنه حقيقة في شكل دعاية أو وسائل التواصل الاجتماعي. لكن هذا على وشك ‏التغيير. سيتم الآن تضمين المعلومات المضللة في محركات البحث التي نستخدمها. ‏

الآن، ليست كل المعتقدات معتمدة بقوة ، أو حتى مبنية على الأدلة، لذلك ربما ‏سيتعامل الأشخاص مع إجابات روبوتات الدردشة بالطريقة التي نتعامل بها مع أي ‏معلومات جديدة. ‏

يقول جو فيتريول، عالم السياسة في جامعة ليهاي الذي يدرس المعلومات المضللة، ‏إنه يتوقع تصديق الناس لروبوت الدردشة إذا أخبرهم بأشياء تتوافق مع معتقداتهم ‏وآرائهم الحالية – تمامًا كما يفعلون مع نتائج ‏Google‏ التقليدية. وما إذا كان ‏روبوت المحادثة يقول الحقيقة أو هلوسات لن يهم حقًا.‏

وتكمن المشكلة في أننا لا نعرف حقًا ما الذي يجعل الناس يقعون تحت تأثير تفسير ‏على آخر. تشير بعض الأبحاث إلى أن التفسيرات التي تتمتع بأكبر قدر من القوة ‏هي تلك التي تكون أبسط وأكثر قابلية للتطبيق على نطاق واسع. ‏

قبل أيام قليلة فقط من إعلان كل من ‏Google‏ و ‏Microsoft‏ عن رحلتهما ‏الوشيكة لتطوير تلك الروبوتات، نشر فريق من علماء الاجتماع في جامعة ‏ستانفورد طبعة أولية رائعة. لقد عرضوا على آلاف الأشخاص مقالات قصيرة ‏مقنعة حول الموضوعات الساخنة مثل حظر الأسلحة الهجومية وضرائب الكربون. ‏تمت كتابة بعض الإصدارات بواسطة ‏chatbot GPT-3‎، وأخرى بواسطة ‏الإنسان. ثم قام العلماء بقياس مدى تغيير الناس لآرائهم بناءً على المقالات.‏

اتضح أن الرسائل التي تم إنشاؤها بواسطة الذكاء الاصطناعي كانت مقنعة تمامًا ‏مثل الرسائل البشرية. لكن الجزء الجامح هو السبب. عندما قام الباحثون ‏باستخلاص المعلومات من البشر، قال أولئك الذين فضلوا مقالات الشات بوت إن ‏الرسائل الحرفية من صنع الإنسان اعتمدت كثيرًا على الحكايات والصور، بينما ‏كان ‏GPT-3‎‏ أكثر استنادًا إلى الأدلة ومنطقًا جيدًا. ‏

كما أن الجودة ذاتها التي جعلت الروبوت أقل إنسانية جعلت البشر أكثر عرضة ‏لتصديقه. تمامًا مثل أفلام الخيال العلمي، لم تشعر روبوتات المحادثة بالشفقة أو ‏الندم أو الخوف ولم يتوقفوا على الإطلاق أبدًا حتى اقتنع البشر.‏

اظهر المزيد