ترجمة | فاطمة فرهود |
في عام 2022، طور بليك ليمون المهندس في جوجل عِلاقة جيدة بـ محاورة رائعة، فقد كانت ذكية، ثاقبة البصيرة وفضولية، وكانت حواراتهما تجري بانسيابية تامة حول مواضيع تتنقل بين الفلسفة والتلفزيون وأحلام المستقبل. ولكن كانت هناك مشكلة واحدة: وهي أن تلك المحاورة عبارة عن روبوت ذكي للدردشة.
خلال سلسلة من المحادثات مع نموذج لغة جوجل المسمى لامدا، اقتنع ليمون تدريجيا بأن روبوت المحادثة ذاك كان “شخصا” مثلي أو مثلك. “أعرف شخصا عندما أتحدث معه…” هكذا قال لصحيفة واشنطن بوست في 2022.
سواء آمنت بادعاءات ليمون أم لا، فإن السؤال الذي يطرح نفسه: هل نعرف حقا شخصا عندما نتحدث معه؟ تشير كلمة “شخصية” عادة إلى الوضع الأخلاقي؛ ففي معظم الأطر الأخلاقية، تظهر اعتبارات معينة- حقوق، واجبات، مدح، لوم، كرامة- على مستوى الشخص. لذا؛ فإن التساؤل حول ما إذا كانت الأنظمة الإلكترونية تستحق أو يمكن أن تستحق مرتبة “الشخصية” له تداعيات واسعة النطاق حول كيفية تعاملنا مع هذه التقنيات.
لكي نقيم إمكانية حصول الأنظمة الإلكترونية على “الشخصية”، نحتاج إلى معيار عام لتحديد الشخصية. في السنوات الأخيرة، جادل العديد من الفلاسفة بأن ما يجعلنا أشخاص هو قدرتنا على الخبرة الواعية. لكن كيف يمكننا تعريف الوعي؟ وما هي الأدلة الخارجية التي بوسعنا استخدامها للحكم على ما إذا كان الكائن واعيا أم لا؟
غياب الإجماع حول هذه الأسئلة هو أحد الأسباب التي جعلت الجدل حول شخصية الذكاء الاصطناعي في حالة جمود منذ مدة. ومن هنا يبرز السؤال: ما هي المعايير الأخرى التي يمكننا الاعتماد عليها لتقييم إمكانية وجود شخصية إلكترونية؟ كطالب دكتوراه أدرس فلسفة العلم، أعتقد أن الطريق نحو هذا السؤال المستقبلي قد يكمن في ماضينا البعيد- في أعمال الفيلسوف الإسلامي المبكر ابن سينا (980-1037 م).
عاش ابن سينا قرونا قبل اختراع المِطبعة، فضلاً على الذكاء الاصطناعي. ومع ذلك، كان مهتما بالكثير من الأسئلة نفسها الذي يفكر بها أخصائيو أخلاقيات الذكاء الاصطناعي اليوم، أسئلة مثل: ما الذي يجعل الشخص شخصا، على خلاف الحيوان؟
تماما كما يولي باحثو الذكاء الاصطناعي في عصرنا الحالي اهتماما كبيرا بمقارنة العمليات التي تقف خلف استجابات البشر والذكاء الاصطناعي للمهام المتشابهة، كان ابن سينا معنيا أيضا بمقارنة العمليات الداخلية التي قد يخضع لها البشر والحيوانات للوصول إلى نواتج سلوكية متماثلة. وكان عدّ أن القدرة المميزة للإنسان كشخص هي قدرته على إدراك “الكليات”، فبينما لا تمتلك الحيوانات سوى القدرة على التفكير في الأشياء الجزئية المحددة الموجودة أمامها، يتمتع
البشر بالقدرة على التفكير انطلاقا من قواعد عامة ومجردة.
في “النفس”، ناقش ابن سينا مثالا قديما شائعا عن شاة تنظر إلى ذئب، بينما سيستدعي الإنسان مبدأ عاما “الذئاب خطرة عمومًا، وهذا الحيوان أمامي هو ذئب؛ لذا؛ ينبغي لي الهرب” زعم أن الحيوانات تفكر بشكل مختلف. فهي لا تستدلل من قاعدة؛ ترى فقط الذئب وتعرف أنها يجب أن تهرب. إنها محدودة إلى “الجزئيات”- ذلك الذئب- بدلا من التفكير في الصفات العامة للذئاب.
التمييز الذي قام به ابن سينا بين علم النفس البشرى والحيواني يشبه إلى حد بعيد التمييز الذي يبحثه علماء الكمبيوتر المعاصرون فيما يتعلق بالذكاء الاصطناعي. تشير البحوث الحالية إلى أن الشبكات العصبية الاصطناعية تفتقر إلى القدرة على التعميم التركيبي المنهجي، يستخدم علماء اللغويات وعلماء المعرفة هذا المصطلح لوصف أنواع الاستنتاجات التي نقوم بها من القواعد العامة. من المفترض على نطاق واسع أنها أحد الطرق الرئيسية التي يستدل بها البشر في الحياة اليومية، بينما يستخلص البشر المعاني من تسلسلات الكلمات التي يمكنهم بعد ذلك دمجها في أفكار أكثر تعقيدا، يبحث الذكاء الاصطناعي في مجموعات البيانات الإحصائية عن إدخالات بيانات محددة تتطابق مع المهمة المعنية.
يفسر هذا الاختلاف الكثير عن حدود الذكاء الاصطناعي المعاصر. ولرؤية ذلك عمليا، لننظر إلى اختبارات CAPTCHA المنتشرة والمستخدمة للتمييز بين البشر والبرامج الآلية. يسخر الكوميدي جون مولاني في أحد عروضه على نتفليكس عام 2018 قائلا: “انظر إلى هذه الحروف المنحنية. أكثر انحناء من معظم الحروف، أليس كذلك؟ لا يمكن لأي روبوت أن يقرأ هذا أبدا” قد يبدو هذا سخيفا، لكنه صحيح؛ فالتغييرات الكافية تجعل من الصعب حتى على أكثر الأنظمة الاصطناعية تطورا التعرف على الحروف، ويرجع ذلك إلى افتقار هذه الأنظمة للقدرة التركيبية على إجراء تعميمات مجردة حول الميزات الأساسية لحرف معين وتطبيقها على أمثلة محرفة.
ينسجم هذا الاختلاف بين المعرفة البشرية والاصطناعية تماما مع وصف ابن سينا لما يميز التفكير البشري. ففي كتابه “الشفاء”، يصف كيف أن “العقل… يتعلم ما هي الأشياء المشتركة وما هي غير ذلك، ثَمَّ يتّضح يستخلص طبائع الأشياء المشتركة في الأنواع” ووفقا لرأيه، يستخلص البشر الميزات الجوهرية للأشياء من ميزاتها الأقل أهمية لتشكيل مفاهيم عامة. ثم نستدل باستخدام هذه المفاهيم، ونطبقها على حالات مختلفة.
على سبيل المثال، عندما كنا أطفالا تعلمنا استخراج ميزة أساسية للحرف X: كونه يتكون من خطين متقاطعين. ثم نجرد- تعميم عالمي حول السمات الأساسية ل X- لنستنتج أن جميع Xs تتكون من خطين متقاطعين. أخيرا، بالاستفادة من تطبيق هذا التعميم، يمكننا التعرف على Xs المحددة. نحن نعلم أن الخطين المتقاطعين هما سمة أساسية للحرف X وأن الخطوط الإضافية العشوائية والتشوه في صورة CAPTCHA ليسا كذلك…
على النقيض من ذلك، فإن الكمبيوتر غير قادر على استنتاج أن هذه الصورة تمثل X ما لم تتم تغذيته بصورة دقيقة لـX (أو شيء مشابه بدرجة كافية) الخطوط الإضافية والشكل المشوه كافية لجعل هذا X غير معروف، لأنه لا يتطابق مع بيانات الحاسب الكبير للصور المحددة المصنفة على أنها X
وبالمثل، لو قدمت لشبكة عصبية اصطناعية مهمة الشاة، فلن تستدل كما يفعل الإنسان، انطلاقا من مفهوم عام لـ”الذئبة” إلى خصائص الذئب المعين مثل الخطورة. بل ستستدل كما تفعل الشاة، محصورة في عالم الجزئيات.
الفرق الجوهري بين الشاة والشبكة العصبية الاصطناعية هو أن الشبكة العصبية لديها إمكانية الوصول إلى مستودع أكبر بكثير من الجزئيات في شكل قواعد بيانات أكثر شمولية. ما يجعل التعلم العميق ناجحا إلى هذا الحد في مهام اللغة هو إمكانية وصوله إلى قواعد بيانات ضخمة تحتوي على أعداد هائلة من الجزئيات، وليس قدرته الحقيقية على محاكاة التفكير البشري بالرجوع إلى القابلية للتعميم التركيبي.
يتشابه معيار ابن سينا الأساسي للشخصية- الاستدلال انطلاقا من الكليات- إلى حد بعيد مع القابلية للتعميم التركيبي المنهجي. يمكن لهذا المعيار أن يوفر معيارا قابلا للاختبار للشخصية. وفي الواقع، فشل الذكاء الاصطناعي حتى الآن في اجتياز هذا الاختبار في العديد من الدراسات. سواء اعتمدنا هذا المعيار كحل أم لا، يوفر رأي ابن سينا عدسة جديدة لمشكلة الشخصية تتحدى افتراضات النظريات المركزة على الوعي.
غالبا ما تنشغل الأخلاقيات العلمية بأحدث التطورات والبحوث والتقنيات الجديدة، وبالتدفق المستمر للبيانات. لكن في بعض الأحيان، قد تتطلب أسئلة المستقبل النظر بعناية إلى الماضي. فالنظر إلى التاريخ يسمح لنا بالنظر إلى ما وراء انشغالات وافتراضات عصرنا، وقد يوفر لنا نهجا حيا تجاه الجمود الحالي…