يمكن للذكاء الاصطناعي المسمى GPT-3 أن يكتب مثل الإنسان ولكن لاتظن أنه يفكر مثل البشر

يمكن للذكاء الاصطناعي المسمى GPT-3 أن يكتب مثل الإنسان ولكن لاتظن أنه يفكر مثل البشر

27 ديسمبر , 2020

ترجم بواسطة:

شوق الغامدي

دقق بواسطة:

ثريا البرقان

يتحدث المقال عن الذكاء الاصطناعي وأنه مهما حدث له من تطور لن يصل إلى تفكير وعاطفة البشر.

منذ أن تم الكشف عنه في وقت سابق من هذا العام، اجتذب برنامج توليد اللغة الجديد القائم على الذكاء الاصطناعي GPT-3 الكثير من الاهتمام لقدرته على إنتاج مقاطع كتابية شبيهة بكتابة الإنسان بشكل مقنع. حتى أن البعض اقترح أن البرنامج، الذي أنشأته OpenAI من Elon Musk، يمكن اعتباره أو يبدو أنه يعرض، شيئًا مثل الذكاء العام الاصطناعي (AGI)، وهو القدرة على فهم أو أداء أي مهمة يمكن للإنسان القيام بها. تكشف هذه التغطية عن تواطؤ طبيعي لكنه منحرف في أذهان الناس بين ظهور عبارات والقدرة على التفكير. اللغة والفكر، على الرغم من أنه من الواضح أنهما ليسا نفس الشيء، إلا أنهما مرتبطان ارتباطًا وثيقًا. ويميل بعض الناس إلى افتراض أن اللغة هي الدلالة القصوى  للفكر. لكن اللغة يمكن أن تتولد بسهولة دون روح حية.

كل ما يتطلبه الأمر هو هضم قاعدة بيانات اللغة التي ينتجها الإنسان بواسطة برنامج كمبيوتر، سواء كان يعتمد على الذكاء الاصطناعي أم لا. استنادًا إلى العينات القليلة نسبيًا من النص المتاح للفحص، فإن GPT-3 قادر على إنتاج جملة بشكلٍ ممتاز. إنه يحتضن  مجموعة واسعة من المفردات، بسبب قاعدة معرفية كبيرة غير مسبوقة يمكن من خلالها إنشاء بيانات جديدة ذات صلة بالموضوع ومتسقة للغاية. ومع ذلك، فهو غير قادر على الفهم بشكل عميق أو إظهار أي علامة على “التفكير”.

على سبيل المثال، يتنبأ أحد المقاطع المكتوبة بواسطة GPT-3 بإمكانية موتك فجأة بعد شرب عصير التوت البري مع ملعقة صغيرة من عصير العنب. هذا على الرغم من وجود نظام لديه إمكانية الوصول إلى المعلومات على الويب بأن عصير العنب صالح للأكل. يشير مقطع آخر أنه لإحضار طاولة عبر مدخل صغير جدًا، يجب عليك قطع الباب إلى نصفين.

إن النظام الذي يمكنه فهم ما كان يكتبه أو لديه أي إحساس بما يبدو عليه العالم لن يولد مثل هذه “الحلول” الشاذة لمشكلة ما. إذا كان الهدف هو إنشاء نظام يمكنه الدردشة بشكل عادل بما فيه الكفاية. يظهر GPT-3 أن الذكاء الاصطناعي سيؤدي بالتأكيد إلى تجارب أفضل مما كان متاحًا حتى الآن. وبالتأكيد سيسمح ببعض  الضحك.

وذلك لأن الذكاء الاصطناعي مثل GPT-3 يعمل عن طريق “هضم” قواعد البيانات الضخمة لمحتوى اللغة لإنتاج محتوى لغوي “جديد” ومركب. المصدر والإنتاج هو اللغة. في المنتصف يوجد صندوق أسود غامض أصغر ألف مرة من قدرة الدماغ البشري ولا شيء مثله في الطريقة التي يعمل بها.

إعادة بناء التفكير الذي هو أصل المحتوى اللغوي مهمة مستحيلة، إلا إذا درست التفكير نفسه. وكما قال الفيلسوف جون سيرل، فقط “الآلات ذات القوى السببية الداخلية المكافئة لتلك الموجودة في الأدمغة” يمكن أن تفكر. وعلى الرغم من كل ما أحرزناه من تقدم في علم الأعصاب الإدراكي، فإننا لا نعرف إلا القليل عن التفكير البشري بصورة مضللة.

فكيف يمكننا أن نأمل في برمجته إلى آلة؟

ما يذهلني هو أن الناس يتكبدون العناء لاقتراح نوع التفكير الذي يجب أن يكون الذكاء الاصطناعي مثل GTP-3 قادرًا على التعامل معه. هذا أمر غريب حقًا، وممتع من بعض النواحي – إن لم يكن مقلقًا. لماذا يعرف برنامج الكمبيوتر، القائم على الذكاء الاصطناعي أم لا، والمصمم لهضم مئات الجيجابايت من النصوص في العديد من الموضوعات المختلفة، أي شيء عن علم الأحياء أو التفكير الاجتماعي؟

ليس لديه خبرة فعلية في العالم ولا يمكن أن يكون له أي تمثيل داخلي مثل الإنسان. يبدو أن الكثير منا يقع ضحية مغالطة السببية بين العقل واللغة. ومن المفترض أنه لا يوجد دخان بدون نار، ولا لغة بدون عقل. لكن GPT-3 عبارة عن آلة تدخين لغوية، خالية تمامًا من أي سمة أو نفس بشرية فعلية. إنها مجرد خوارزمية، ولا يوجد سبب لتوقع أنها يمكن أن تقدم أي نوع من التفكير لأنه لا يمكنها أن تسد الفجوات.

جزء من المشكلة هو الوهم القوي بالاتساق الذي نحصل عليه من قراءة مقطع أنتجه الذكاء الاصطناعي مثل GPT-3 بسبب قدراتنا الخاصة. تم إنشاء أدمغتنا من خلال مئات الآلاف من السنين من التطور وعشرات الآلاف من الساعات من التطور البيولوجي لاستخراج المعنى من العالم وإنشاء اعتبار لأي موقف. عندما نقرأ انتاجية GPT-3، فإن دماغنا يقوم بمعظم العمل.

نحن نفهم أن هذا لم يكن مقصودًا أبدًا، ببساطة لأن اللغة تبدو متماسكة وتشعر بأنها سليمة من حيث الموضوع، ولذا فإننا نربط الأمور ببعضها. نحن معتادون على القيام بذلك، في كل لحظة من حياتنا، حتى أننا لا ندرك أن ذلك يحدث.

نحن نربط النقاط ببعضها البعض وقد نميل حتى إلى التفكير في أن العبارة تمت صياغتها بذكاء لمجرد أن الأسلوب قد يكون غريبًا أو مفاجئًا بعض الشيء. وإذا كانت اللغة واضحة بشكل خاص ومباشرة ومبنية بشكل جيد (وهو ما تم تحسين مولدات الذكاء الاصطناعي لتقديمه)، فإننا نميل بشدة إلى استنتاج وجود مشاعر، حيث لا يوجد مثل هذا الشيء.

عندما كتب سلف GPT-3 ، GPT-2، “أنا مهتم بفهم أصول اللغة”، من كان يتحدث؟

أعطى الذكاء الاصطناعي للتو ملخصًا شديد الضآلة لسعينا النهائي كبشر، تم التقاطه من محيط من المنتجات اللغوية البشرية المخزنة – محاولتنا اللانهائية لفهم ما هي اللغة ومن أين أتينا. ولا يوجد شبح في الغلاف، سواء “تحدثنا” مع GPT-2 أو GPT-3 أو GPT-9000.

المصدر: https://techxplore.com

ترجمة: شوق الغامدي

تويتر: Shgkh

مراجعة: ثريا البرقان

تعليق صوتي: غادة زملط


اترك تعليقاً

القائمة البريدية

اشترك في قائمتنا البريدية ليصلك جديد مقالاتنا العلمية وكل ماهو حصري على مجموعة نون العلمية