مجلة حكمة
البرمجيات والمسؤولية الأخلاقية

البرمجيات والمسؤولية الأخلاقية

الكاتبميرال نورمان
ترجمةعادل الشهوان
تحميلنسخة PDF

مدخل فلسفي شامل حول البرمجيات والمسؤولية الأخلاقية؛ نص مترجم، ومنشور على (موسوعة ستانفورد للفلسفة). ننوه بأن الترجمة هي للنسخة المؤرشفة في الموسوعة، والتي قد يطرأ عليها التعديل من منذ تتمة هذه الترجمة. وختامًا، نخصّ بالشكر محرري موسوعة ستانفورد على تعاونهم واعتمادهم للترجمة والنشر على مجلة حكمة.


عند الحديث عن المسؤولية الأخلاقية، فإن الفلسفة التقليدية تركز وبشكل سافر على العنصر البشري، وعادة ما يتم تحميل المسؤولية على مكلفين من البشر قاموا بأفعال لها تبعات محددة. ولكن الأمر مختلف في المجتمع التكنلوجي، حيث لا يمكن فهم الدور البشري دون الإشارة الى العامل التكنلوجي، وهذا يعقد عملية اسناد وتحميل المسؤولية الأخلاقية. (Jonas 1984 ؛ Waelbers 2009).

التعامل مع المنتجات التكنلوجية يؤثر على قراراتنا، بل وحتى في آلية اتخاذ تلك القرارات (Latour 1992). حيث تقوم التكنلوجيا بتيسير بعض القرارات (بالإقناع والتشجيع) وتعقيد بعضٍ آخر (بصنع القيود والتثبيط). إنها قادرة على اقناعنا بسهولة أمر ما، كما أنها قادرة على اقناعنا بصعوبته. فعلى سبيل المثال: تمنحنا ترتيباً معينا للبيانات وبأولويات ذكية مما يجعلنا مقيدين بما تريد التكنلوجيا، وهو ما أطلق عليه فيربيك “الوسطاء الفعالون” “وهم الذين يستطيعون إعادة تشكيل تصورات البشر وتشكيل تجاربهم وادراكاتهم” (2006, p. 364) وكونهم “وسطاء فعالون” فإن التكنلوجيا قادرة على تغيير طبيعة العمل البشري، وذلك نتيجة طبيعية لتحدي المفاهيم التقليدية للمسؤولية الأخلاقية(Jonas 1984; Johnson 2001)

تمثل البرمجيات حالة خاصة في فهم دور التكنلوجيا في المسؤولية الأخلاقية. فقد أصبحت جزءً هاماً من الأنشطة والممارسات اليومية، وتتدخل في أتمتة صناعة القرارات، وتغير في طرق تواصل البشر مع بعضهم البعض، وبالتالي فإنها تعقد الإشكالات المتعلقة بالمسؤولية الأخلاقية. إن تزايد استخدام التقنيات والبرمجيات في الحياة اليومية وما يتبع ذلك من تعقيدات، ولتقدم إمكانيات تلك البرمجيات، كل ذلك يطرح أشكالاً جديدة من الاستفهامات: من المسؤول عن سلامة المعلومات التي تنشر على الانترنت؟ من يتحمل مسؤولية حوادث السيارات ذاتية القيادة؟ من يتحمل مسؤولية فقدان بيانات الكترونية؟ ومن يتحمل مسؤولية خطأ البيانات الإلكترونية؟ إلى أي مدى يتحمل المبرمجون مسؤولية برمجياتهم وإلى أي فترة زمنية تمتد مسؤوليتهم. ومع التقدم والتعقيد الإلكتروني وتزايد سيطرة الآلة وذاتيتها، إلى أي مدى سيبقى البشر مسؤولين عن سلوكيات هذه التقنيات؟

ستكون الانطلاقة من التحديات التي تطلقها البرمجيات أمام المفاهيم التقليدية للمسؤولية الأخلاقية.

ثم ينتقل النقاش الى استعراض طريقين للكتّاب لمعالجة هذه التحديات:

  1. إعادة النظر في فكرة “التكليف الأخلاقي”
  2. إعادة التفكير في مفهوم “المسؤولية الأخلاقية” ذاتها.

1-. تحديات المسؤولية الأخلاقية

1.1 المساهمة السببية

1.2 النظر في العواقب

1.3 حرية التصرف

2. هل يمكن أن تصبح أجهزة الحاسوب مكلفة أخلاقياً؟

2.1 أجهزة الحاسوب باعتبارها مُكلَّفة بالمسؤولية الأخلاقية

2.2 إيجاد أطراف مستقلين يُكلَّفون بالمسؤولية الأخلاقية

2.3 توسيع مفهوم ” التكليف الأخلاقي”

3. إعادة التفكير في مفهوم المسؤولية الأخلاقية

3.1 إسناد المسؤولية

3.2 المسؤولية كممارسة

  • 4. الخلاصة
  • ·           المراجع
  • أدوات أكاديمية
  • مصادر أخرى على الإنترنت
  • مداخل ذات صلة

  1. تحديات أمام المسؤولية الأخلاقية

تتعلق المسؤولية الأخلاقية بأفعال الإنسان ونواياه وعواقب تلك النوايا (Fisher 1999، Eshleman 2016). وبشكل عام يكون الانسان مسؤولاً أخلاقياً عندما يكون لأفعاله -التي قام بها اختياراً – نتائج مهمة من الناحية الأخلاقية تجعل من المناسب أن يُشكر أو يُلام عليها. فعندما ترى انساناً يغرق فإنه من المسؤولية الأخلاقية أن تقوم بإنقاذه، وقد تتلقى الشكر على ذلك، بينما إذا تجاهلته ورفضت مساعدته فقد تتلقى اللوم. يُنشئ إسناد المسؤولية الأخلاقية ارتباطًا بين فرد أو مجموعة من الأفراد من جهة وفرد آخر أو شيء ما يتأثران بأفعال الفرد الأول. الفرد الذي يقوم بالأفعال ويتسبب في حدوث الأثر يطلق عليه مصطلح “المُكَلَّف”، بينما الطرف الذي تأثر بالفعل يمكن أن نطلق عليه “المتضرر”. ومن حيث المسؤولية الأخلاقية يمكن أن ننشئ رابطاً بين ” المُكَلَّف ” و “المتضرر” بأثر رجعي أو بتوقع مستقبلي، وهذا يعني تحميل مسؤولية الأخطاء التي تقع “الاسناد” وتحديد من يجب أن يعاقب. كذلك يمكن أن تعني: التنبؤ بالالتزامات التي يجب على الفرد أن يقوم بها مستقبلاً.

ومع ذلك فإن اسناد المسؤولية الأخلاقية لا يكون واضحاً دائماً. كما ينطوي مفهوم المسؤولية الأخلاقية على معان واسعة وهناك نقاشات طويلة حول ما يميز المسؤولية الأخلاقية عن المسؤوليات الأخرى (Hart 1968). هذا المفهوم متداخل مع مفاهيم أخرى مثل: المساءلة والالتزام وتوجيه اللوم وتعاقب المسؤولية والسببية. وهناك تباين في وجهات النظر حول الشروط التي تبرر اسناد المسؤولية الأخلاقية؟، وهل يشترط توفر “حرية الارادة”؟، وهل تقع المسؤولية الأخلاقية على البشر فقط؟ (راجع مقالة المسؤولية الأخلاقية في موسوعة ستانفورد. )

وكذلك فإن الربط بين المكلف بالعمل والمتضرر عملية معقدة بسبب العلاقات البشرية، و بزداد ذلك التعقيد في البيئة التقنية. حيث يقوم الأفراد والمؤسسات بالتعامل مع أنظمة (اجتماعية – تقنية) بحيث يتم توزيع المهام بين الانسان والمكونات التقنية والتي يتأثر كل منها بالآخر بشكل متبادل وبطريقة عرضية (Bijker، Hughes and Pinch 1987). إن تعقيد التقنيات الحديثة أدى إلى صعوبة تحديد مفهوم المسؤولية ومن ثم تحديد المسؤول. ومن أهم أسباب صعوبة تحديد مفهوم المسؤولية هو التقنيات الحديثة المعقدة، والتي أدت كذلك إلى صعوبة تحميل المسؤولية على فرد محدد، فعند وقوع خطأ ما فإن مراجعة وتتبع الأحداث تساهم في كشف المسؤول، ولكن كلما كان النظام أكثر تعقيداً فإن مهمة مراجعة وتتبع ومن ثم تحديد المسؤول تصبح أكثر صعوبةً. يناقش Matthias فكرة “فجوة المسؤولية” ويرى أنه كلما تزايدت التعقيدات التقنية وتناقص التدخل البشري في سلوك التقنيات فإن ذلك يؤدي إلى تراجع إمكانية تحميل المسؤولية على عنصر بشري (Matthias، 2004).

إن الانتشار المتزايد للبرمجيات يشكل تحديات متعددة أمام تحديد مفهوم المسؤولية الأخلاقية، وكيف ينبغي أن يتم اسناد تلك المسؤولية. ولتوضيح مقدار التعقيد في مهمة اسناد المسؤولية في بيئة البرمجيات فإن علينا أن نأخذ في الاعتبار الشروط المنطقية لتحميل المسؤولية على فرد ما. ورغم النقاشات الفلسفية المستمرة حول هذه القضية فإن معظم محللي المسؤولية الأخلاقية يشتركون في سرد ثلاثة شروط:

  1. يجب أن يكون هناك علاقة سببية بين الفرد والمشكلة، وعادة تُحَمَّل المسؤولية عليه إذا كان له قدرة وتحكم كامل بالحدث.
  2. يجب ان يكون الفرد المتسبب بوقوع المشكلة على دراية بعواقب تصرفاته، نميل إلى مسامحة الأفراد الذين يتصرفون دون أن يتوقعوا حدوث ضرر.
  3. يجب أن يكون للفرد حرية اتخاذ القرار، أي لا يمكن تحميل الفرد مسؤولية قرارات فرضت عليه من جهة أقوى.  

وبنظرة عن قرب نجد أن البرمجيات تجعل تطبيق هذه الشروط عملية معقدة.

1.1 المساهمة السببية

لتحميل فرد ما المسؤولية الأخلاقية فإنه يجب أن يساهم بالفعل المسبب للضرر، فليس من المنطقي القاء اللوم على فرد ما إذا لم يكن بإمكانه تجنب وقوع الضرر أو التصرف بطريقة مختلفة أو لم يكن مسيطراً على الموقف بشكل كامل.

وفي بعض الأحيان تكون البرمجيات سبباً في الضبابية، ولا نستطيع أن نربط بين الفعل والنتيجة. ذلك أن الكوارث التي تكون البرمجيات طرفاً فيها كتحطم الطائرات فإنه غالباً ما يؤدي تتبع الحادث إلى تشعبات كثيرة، لأنها لا تنتج عن خطأ وحيد، بل تكون نتاجاً لتراكم الأخطاء وسوء الفهم أو الإهمال من قبل الأفراد المشاركين في تطوير وصيانة أنظمة الحاسوب بما في ذلك المصممين والمهندسين والفنيين والمنظمين والمديرين والمستخدمين والمصنعين والبائعين والموزعين بل وحتى مصممي السياسات.

إن تعدد المشاركين في عملية تطوير البرمجيات ونشرها يؤديان إلى “تشتت المسؤولية” والتي تعني: صعوبة تحديد المسؤول عما يحدث عندما يساهم العديد من الأفراد في صناعة الأحداث (Friedman 1990 ؛ Nissenbaum 1994 ؛ Jonas 1984 ؛ van de Poel et al 2015). أحد الأمثلة الكلاسيكية لمشكلة ” تشتت المسؤولية ” في الحاسوب هو حالة تعطل آلة العلاج الإشعاعي Therac-25 (Leveson and Turner 1993 ؛ Leveson 1995). فقد صُمِّمَتْ هذه الآلة التي يتم التحكم فيها بواسطة الحاسوب لعلاج مرضى السرطان باستخدام الأشعة وتستخدم كذلك للفحص بالأشعة السينية، وفي ثمانينيات القرن العشرين اُسْتُخْدِمَ هذا الجهاز لعلاج ستة مرضى، ولكن وبسبب خطأ ما تعرضوا لجرعة زائدة من الأشعة أنهت حياة ثلاثة منهم. كانت هذه الحوادث نتيجة مجموعة من العوامل، منها: الأخطاء البرمجية، وعدم كفاية اختبارات الجودة، والادعاءات المبالغ فيها حول الموثوقية، والتصميم السيء لواجهات البرمجيات (الشاشات)، والثقة الزائدة في تصميم البرامج، وعدم كفاية التحقيق أو المتابعة لتقارير الحوادث. ومع ذلك، استنتج Leveson and Turner في تحليلهما للأحداث أنه من الصعب إلقاء اللوم على شخص واحد. في بعض الأحيان فإن التجاوز أو التقصير في الإجراءات قد لا يؤديان إلى حدوث كارثة إذا لم تكن تلك التجاوزات متزامنة مع تجاوزات أخرى. وهذا لا يعني أنه لا يوجد مساءلة لتحميل المسؤولية الأخلاقية على أحد الأفراد (Nissenbaum 1994؛ Gotterbarn 2001؛ Coeckelbergh 2012؛ Floridi 2013) حيث كان من الممكن أن يتصرف المعنيون بطريقة مختلفة لتجنب الكارثة ولكن من الصعب تحديد الأشخاص المعنيين بأثر رجعي، ثم استجوابهم ومطالبتهم بالتعويض.

إضافة الى مشكلة ” تشتت المسؤولية ” هناك “تجاوز البعد المكاني” والفجوة التي تخلقها البرمجيات فيما بين الفرد ونتائج أفعاله، حيث أن هذه الفجوة قادرة على طمس العلاقة بينهما. (Friedman 1990) تقوم تقنية البرمجيات بمساعدة الانسان لتجاوز حدود المكان والزمان، وبمساعدة وسائل التواصل الاجتماعي وتقنيات الاتصال يمكن للفرد أن يتواصل مع أفراد في الطرف الآخر من الكوكب. كما ان الأقمار الاصطناعية وتقنيات الاتصال المتقدمة تقوم بمساعدة الطيارين بقيادة طائرة مسيرة والتحكم بها عن بعد وهم مستقرون في قواعدهم الأرضية. تمكن هذه التقنيات الناس من العمل عبر مسافات أكبر، لكن هذه المسافات يمكن أن تفصل الأفعال عن عواقبها النهائية (Waelbers 2009 ؛Coeckelbergh 2013). عندما يستخدم فرد ما أداة تكنولوجية لأداء عمل على بعد آلاف الأميال، فقد لا يتعرف هذا الفرد على نتائج ما قام به، وقد لا يتعرض للعواقب بشكل مباشر ولا حتى غير مباشر. هذا يمكن أن يقلل من الشعور بالمسؤولية الذي يشعر به، وقد يتعارض مع قدرته على الفهم الكامل لأهمية أفعاله. وبالمثل، يحدد مصممو نظام صنع القرار الآلي كيفية اتخاذ القرارات، لكنهم نادرًا ما تسنح لهم الفرصة ليروا كيف ستؤثر هذه القرارات على الأفراد. قد يتأخر ظهور نتائج أفعالهم عدة سنوات. ” تشتت المسؤولية ” و ” تقنيات تجاوز البعد المكاني” يكشفان الدور الوسيط الذي تقوم به التكنلوجيا في مسألة ضبابية المسؤولية الأخلاقية. في عالم التقنية تلتقي الرغبات المختلفة للمنتجين والمستخدمين على شكل منتجات إبداعية. يقوم الناس بإنشاء ونشر التقنيات بهدف إحداث بعض التأثير في العالم. يقوم مطورو البرامج بتصميم مرشحات لمتصفحات الانترنت، ويتم ذلك غالبًا بناءً على طلب مدير أو عميل، بهدف حماية محتوى معين من مستخدميه والتحكم بما يمكن للمتصفحين قراءته ومالا يسمح لهم الاطلاع عليه. وفي تلك البرمجيات سُجِّلَتْ رغبات المطورين والمدراء والعملاء، وهي مجهزة لاتخاذ القرار وفق تلك الرغبات، ونعني بذلك قرارات المعلومات المناسبة للعرض والمعلومات التي يجب حجبها (Friedman 1997). لذا فلا يمكن اسناد المسؤولية الأخلاقية لمنتجات تقنية المعلومات دون معرفة العلاقة السببية بينها وبين الصلاحيات الممنوحة للعنصر البشري المستخدم لها. ومع ذلك فإن منتجات تقنية المعلومات قد تسهل النشاط البشري أو تشكله ولكنها لا تقوم بوضع حدود له. إنها ليست أدوات اُسْتُخْدِمَتْ بمعزل عن مفاهيم أخرى مثل: من يستخدمها؟ ولماذا يستخدمها؟ وفي أي سياق يتم استخدامها؟ بل لديها مرونة تفسيرية (Bijker et al. 1987) أو ثبات متعدد (Ihde 1990). إن تصميم البرمجيات يتضمن اشتراط ظروف وبيئة معينة، وتصميم تلك الشروط جاء بناء على توقع كيفية استخدام تلك البرمجيات من قبل الأفراد، ورغم ذلك فإننا نكتشف أن الأفراد يستخدمون البرمجيات بطريقة غير متوقعة، هذه المرونة التفسيرية تجعل من الصعب على المصممين أن يتوقعوا جميع الاستخدامات من قبل الأفراد. يؤدي الدور الوسيط للبرمجيات إلى تعقيد جهود تتبع العلاقة السببية بين الإجراءات والنتائج بأثر رجعي، ولكنه أيضاً يعقد أيضًا المسؤولية التنبؤية للمبرمجين.

2.1 النظر في العواقب

نظرًا لأن البرمجيات تساهم في كيفية إدراك الناس للعالم، لذا فإنها تؤثر على الشرط الثاني لإسناد المسؤولية الأخلاقية. ومن أجل اتخاذ القرارات المناسبة، يجب أن يكون الفرد قادرًا على تقدير عواقب أفعاله. وعلى دراية بالمخاطر أو الأضرار المحتملة التي قد تسببها. إذ ليس من العدل تحميل فرد ما المسؤولية عن شيء ما إذا كان جاهلاً بالضرر الذي يمكن وقوعه.

من ناحية أخرى، يمكن للبرمجيات أن تساعد المستخدمين على التنبؤ فيما قد تؤدي إليه أفعالهم أو اختياراتهم. إنها تساعد المستخدم على التقاط وتخزين وتنظيم وتحليل البيانات والمعلومات (Zuboff 1982). فعلى سبيل المثال، تتمثل إحدى مميزات الروبوتات التي يتم التحكم فيها عن بُعد والتي تستخدمها القوات المسلحة أو عمال الإنقاذ في أنها تمكن مشغليها من الحصول على معلومات لن تكون متاحة بدونها. إنها تسمح لمشغليها بالنظر إلى “ما وراء التل التالي” أو “خلف ناصية الطريق” وبالتالي يمكنها مساعدة المشغلين على التفكير في النتائج التي قد تترتب على قرارات تكتيكية معينة (وزارة الدفاع الأمريكية 2009). وبالمثل، يمكن لأدوات تحليل البيانات أن تكتشف النمط السلوكي المتبع من خلال تحليل بيانات ضخمة لا يمكن لمحللي البيانات الانسانية معالجتها يدويًا (Boyd and Crawford 2012). إن استخدام أجهزة الحاسوب قد يؤدي إلى تقييد قدرة المستخدمين على تقدير نتائج أفعالهم. هذه التقنيات المعقدة -التي لا تخلو من الأخطاء – تخفي وبشكل متزايد العمليات الآلية خلف الشاشة (Van den Hoven 2002). ومن الأمثلة التي توضح كيف يمكن لتقنيات الحاسوب أن تحد من فهم النتائج هو أدوات تقييم “المخاطر المثيرة للجدل” التي يستخدمها القضاة في العديد من الولايات في الولايات المتحدة لقرارات الإفراج المشروط وإصدار الأحكام. ففي عام 2016 وجدت إحدى منظمات المجتمع المدني وبالاستناد إلى تحليل درجات المخاطر لـ 7000 مدعى عليه وباستخدام خوارزمية معينة، أن الدرجات تعكس بشكل سيء معدل العودة الفعلي للإجرام ويبدو أن لديها تحيزًا عنصريًا (Angwin et al. 2016). وبغض النظر عما إذا كانت النتائج التي توصلت إليها الدراسة صحيحة، فإن الشيء المهم هنا هو أن التحقيق أظهر أيضًا أن القضاة لم يكن لديهم فهم كامل لكيفية حساب الاحتمالات، لأن الخوارزمية كانت محمية بحقوق ملكية فكرية. وقد استند القضاة في أحكامهم على اقتراحات خوارزمية لم يفهموها تمامًا. وهذا هو الحال بالنسبة لمعظم تقنيات الحاسوب اليوم حيث لا يرى المستخدمون إلا جزءًا محدوداً من العمليات الحسابية التي يقوم بها الحاسوب ويكونون في الغالب غير مدركين لكيفية أدائها. عادة ما يكون لديهم فهم جزئي للافتراضات والنماذج والنظريات التي تستند إليها المعلومات الموجودة على شاشة الحاسوب.

إن ضعف شفافية أنظمة البرمجيات قد تؤدي إلى عدم القدرة على تقييم صدق البيانات، ومدى ملاءمتها، كما يمكن أن تؤدي إلى صعوبة اتخاذ القرار المناسب. يميل الناس إلى المبالغة في الاعتماد على دقة الأنظمة الآلية (Cummings 2004; Parasuraman & Riley 1997). فإن عامة الناس لا يتعاملون مع الانذارات بجدية كافية إذا كانت الإنذارات الكاذبة كثيرة، وفي حالة Therac 25، فقد شهدت إحدى مشغلي الجهاز أنها اعتادت على العديد من رسائل الخطأ المشفرة التي عرضتها شاشة الجهاز، وأن معظم تلك الرسائل لم يتضمن ما يفيد وجود تهديد لسلامة المرضى (Leveson and Turner 1993، ص 24). لذا فقد كانت تميل إلى تجاهلها، وبالتالي فشلت في ملاحظة الخطأ عندما ضُبِطَ الجهاز على كمية زائدة من الأشعة لا يحتاجها المريض. ويمكن أن يكون هناك عواقب وخيمة للاعتماد المفرط على الأنظمة الآلية. ففي عام 1988، أطلق الطراد البحري U.S.S. Vincennes  صواريخ تسببت في تحطم طائرة ركاب إيرانية مدنية، مما أسفر عن مقتل جميع ركابها البالغ عددهم 290 راكبًا، بعد أن حدد الطائرة بالخطأ على أنها طائرة عسكرية مهاجمة (Gray 1997). جُهِّزَ الطراد بنظام دفاعي Aegis يمكنه تلقائيًا تتبع واستهداف صواريخ العدو وطائراته العسكرية. وقد كشفت تحليلات الأحداث التي أدت إلى الكارثة أن الثقة المفرطة في قدرات نظام Aegis منعت الآخرين من التدخل عندما أمكنهم ذلك. بينما استطاعت سفينتان حربيتان قريبتان التعرف عليها أنها طائرة مدنية بشكل صحيح. ومع ذلك، لم يناقشوا طاقم الطراد في أنها طائرة مدنية وليست عسكرية. وفي تفسير لاحق، صرح الملازم ريتشارد توماس من إحدى السفن القريبة، “لقد اتصلنا بالطراد… لقد بدا دائمًا أن لديه صورة… لقد بدا دائمًا وكأنه يخبر الجميع أن الصور التي لديه كانت أفضل “(كما ورد في Gray 1997، ص 34). اعتقد ضباط كلتا السفينتين أن نظام Aegis المتطور استطاع تزويد طاقم Vincennes بمعلومات لم تكن بحوزتهم.

إن النظر في العواقب المحتملة لأفعال الفرد أمر أكثر تعقيدًا لأن تقنيات الحاسوب تجعل من الممكن للبشر القيام بأشياء لم يتمكنوا من القيام بها من قبل. فقبل عدة عقود، أشار الفيلسوف Ladd إلى أن “تكنولوجيا الحاسوب خلقت أنماطًا جديدة للسلوك ومؤسسات اجتماعية جديدة ورذائل جديدة وفضائل جديدة وطرقًا جديدة للمساعدة وطرقًا جديدة لإساءة معاملة الآخرين” (Ladd 1989، p 210-11). أصبح لتقنيات البرمجيات اليوم تأثير مماثل. ظهور الاتفاقيات الاجتماعية أو القانونية التي تحكم ما يمكننا فعله بهذه التقنيات قد يستغرق بعض الوقت، مما يطيل الفترة التي تغيب فيها الاتفاقيات مما قد يتسبب في الارتباك حول المسؤوليات (Taddeo and Floridi 2015). فعلى سبيل المثال، تثير قدرة المستخدمين على تحميل ومشاركة النصوص ومقاطع الفيديو والصور بشكل عام على الإنترنت مجموعة كاملة من الأسئلة حول المسؤول عن محتوى الملفات التي حُمِّلَت. تكررت هذه الأسئلة في ثنايا الجدل الدائر حول إدانة ثلاثة مدراء تنفيذيين لشركة Google في إيطاليا بانتهاك قانون حماية البيانات (Sartor and Viola de Azevedo Cunha 2010). تتعلق القضية بمقطع فيديو على موقع يوتيوب لأربعة طلاب يعتدون على شخص معوق. استجابة لطلب من الشرطة الإيطالية، قامت Google، بصفتها مالكة YouTube، بحذف الفيديو بعد شهرين من رفعه من قبل الطلاب. ومع ذلك، كان حكم القاضي بأن Google كانت مسؤولة جنائيًا عن معالجة الفيديو دون اتخاذ تدابير احترازية كافية لتجنب انتهاكات الخصوصية. كما حمل القاضي Google مسؤولية عدم إخطار الطلاب بالتزامات حماية البيانات الخاصة بهم (ص 367). وفي النقاش الذي أعقب ذلك حول الحكم، أصر المنتقدون للحكم على أنه يهدد حرية التعبير على الإنترنت وأنه يشكل سابقة خطيرة يمكن أن تستخدمها الأنظمة الاستبدادية لتبرير الرقابة على الويب (انظر أيضًا Singel 2010). علاوة على ذلك، زعم منتقدو الحكم القضائي أنه لا يمكن تحميل مزودي المنصات المسؤولية عن تصرفات المستخدمين، لأنهم لا يستطيعون الموافقة على كل مقطع، ولم يكن من واجبهم الرقابة. و جادل الآخرون بأنه سيكون من غير الأخلاقي أن يتم إعفاء Google من المسؤولية عن الأضرار التي لحقت بالآخرين بسبب النشاط التجاري لـ Google. تُظهر مثل هذه الحالات أنه في حالة الارتباك حول إمكانيات التقنيات الجديدة والقيود المفروضة عليها فقد يكون من الصعب تحديد الالتزامات الأخلاقية للفرد تجاه الآخرين.

كما أن نقص الخبرة حول الابتكارات التكنولوجية قد يسبب أيضًا على ما يعتبر استخدامًا متهاوناً للتكنولوجيا. فمن أجل تشغيل نظام حاسوب جديد، يتعين على المستخدمين عادةً الخضوع لعملية تدريب والتعرف على النظام. كما يتطلب الأمر مهارة وخبرة لفهم وتخيل كيف سيتصرف النظام (Coeckelbergh and Wackers 2007). يصف فريدمان حالة المبرمج الذي قام باختراع “دودة حاسوب” وقام بتجربتها، وهي جزء من التعليمات البرمجية التي يمكنها تكرار نفسها. في ذلك الوقت كان هذا كيانًا حاسوبياً جديدًا إلى حد ما (1990). أطلق المبرمج الدودة على الإنترنت، ولكن سرعان ما خرجت التجربة عن السيطرة عندما تم تكرار الشفرة بشكل أسرع بكثير مما كان متوقعًا (انظر أيضًا Denning 1989). اليوم لن نجد هذا عذرًا مقبولاً، كما أصبحت ديدان الحاسوب والفيروسات مألوفة بالنسبة لنا. ومع ذلك، يطرح فريدمان السؤال عما إذا يعتبر المبرمج مهملاً في تصرف ما إذا كانت العواقب غير متوقعة. هل يؤثر افتقار مجتمع الحاسوب للخبرة مع نوع معين من الكيانات الحاسوبية على ما نعتبره سلوكًا مهملاً؟

3.1 حرية التصرف

ربما تكون حرية التصرف هي أهم شرط لإسناد المسؤولية الأخلاقية وأيضًا أحد أكثر الشروط إثارة للجدل. نميل إلى إعفاء الناس من اللوم الأخلاقي إذا لم يكن لديهم خيار آخر سوى التصرف بالطريقة التي فعلوها. نحن عادة لا نحمل الأشخاص المسؤولية إذا تم إكراههم أو إجبارهم على اتخاذ إجراءات معينة. في الفلسفة الأخلاقية، يمكن أن تعني حرية التصرف أيضًا أن الشخص لديه إرادة حرة أو استقلالية(Fisher 1999).. يمكن تحميل شخص ما المسؤولية الأخلاقية لأنه يتصرف على أساس أفكاره ودوافعه الحقيقية ولديه القدرة على التحكم في سلوكه (Johnson 2001).. لاحظ أن مفهوم الاستقلالية هذا يختلف عن طريقة استخدام مصطلح “الاستقلالية” غالبًا في علوم الحاسوب، حيث يميل إلى الإشارة إلى قدرة الروبوت أو نظام الحاسوب على أداء المهام المعقدة بشكل مستقل في بيئات غير متوقعة لفترات طويلة من الوقت (Noorman 2009).

ومع ذلك، لا يبدو أن هناك إجماع حول ماهية القدرات التي يمتلكها الانسان، ولا تمتلكها الكيانات البرمجية، والتي تمكِّنه من التصرف بحرية (انظر المقالات الخاصة بالإرادة الحرة، والاستقلالية في الفلسفة الأخلاقية والسياسية، والاستقلالية الشخصية، والتوافق). هل يتطلب العقلانية أم العاطفة أم القصد أم الإدراك؟ في الواقع هناك نقاش مهم في الفلسفة الأخلاقية يتمحور حول مسألة ما إذا كان البشر يتمتعون حقًا بالاستقلالية أو الإرادة الحرة؟ وإذا لم يكن الأمر كذلك، فهل يمكن أن يُحمّل المسؤولية الأخلاقية (Eshleman 2016)؟

من الناحية العملية فإن وصف الانسان بأنه مستقل ذو إرادة حرة بناءً على توافر مجموعة من الشروط لهي مجازفة غير محسوبة. فالاستقلالية ليست على مستوى واحد بل عدة درجات. يعتبر البالغ بشكل عام أكثر استقلالية من الطفل. وكأفراد في المجتمع فإن استقلاليتنا ليست على ضرب واحد، لأنه يتم التحكم بنا ونتأثر بقوى خارجية، مثل والدينا أو الأقران. علاوة على ذلك يُنظر إلى التأثيرات الجسدية أو النفسية الداخلية، مثل الإدمان أو المشاكل العقلية، على أنها تقييد لاستقلالية الفرد.

البرمجيات الحاسوبية مثلها في ذلك مثل التقنيات الأخرى تضيف درجة إضافية من التعقيد على إشكالية حرية التصرف والاستقلالية، لأنها تؤثر على الخيارات المتاحة أمام الفرد، وكيف يتخذ قراراته. أحد أكبر المجالات الحاسوبية هو أتمتة عمليات اتخاذ القرار والتحكم. والتي يمكن أن تساعد في مركزية وزيادة التحكم في عمليات متعددة للمسؤولين، بينما تحدّ من السلطة التقديرية للموظفين في الطرف الأدنى من سلسلة صنع القرار. و أحد الأمثلة على ذلك عند أتمتة صنع القرار في الإدارة العامة (Bovens and Zouridis 2002). قامت مؤسسات القطاع العام الكبيرة على مدى العقود القليلة الماضية بتوحيد عملياتها الإنتاجية بشكل تدريجي وإضفاء الطابع الرسمي عليها. تتم عملية إصدار القرارات المتعلقة بالقروض الطلابية أو مخالفات السرعة أو الإقرارات الضريبية وبشكل كامل تقريبًا بواسطة أنظمة الحاسوب. وقد أدى ذلك إلى تقليص نطاق السلطة التقديرية الإدارية التي يمتلكها العديد من المسؤولين، مثل مفتشي الضرائب والعاملين في مجال الرعاية الاجتماعية ومسؤولي السياسات، وفي تقرير كيفية تطبيق قواعد السياسة الرسمية في الحالات الفردية. لم يعد المواطنون يتفاعلون مع المسؤولين الذين يتحملون مسؤولية كبيرة في تطبيق معرفتهم بالقواعد واللوائح لتحديد ما هو مناسب (على سبيل المثال، هل سيكون من الأفضل ترك شخص ما مع تحذيره أم يجب أن تسجيل مخالفة السرعة ؟).بدلاً من ذلك، يتم برمجة القرارات مسبقًا في الخوارزميات التي تطبق نفس الإجراءات والقواعد بغض النظر عن الشخص أو السياق (على سبيل المثال، لا تهتم كاميرا السرعة بظروف الطريق والسائق). انتقلت المسؤولية عن القرارات المتخذة في هذه الحالات من “بيروقراطيي الشارع”[2] إلى “بيروقراطيي البرمجيات” مثل المديرين وخبراء الحاسوب، الذين يقررون كيفية تحويل السياسات والأطر القانونية إلى خوارزميات وأشجار اتخاذ القرار.

توضح أتمتة العمليات البيروقراطية أن بعض البرمجيات مصممة عمداً كي تحد من حرية التصرف لدى بعض الأفراد، في الواقع يهدف مجال “تقنية الإقناع” إلى تطوير منتجات التقنية التي تقنع البشر بالأداء بطرق “مرغوبة” (IJsselsteijn et al.2006). مثال على ذلك هو “قفل الثمِل”[3] المستخدم بالفعل في عدد من البلدان، بما في ذلك الولايات المتحدة الأمريكية وكندا والسويد والمملكة المتحدة. يتطلب الأمر من السائق اجتياز اختبار التنفس قبل أن يتمكن من تشغيل السيارة. تفرض هذه التقنية نوعًا معينًا من الحركة ولا تترك للسائق أي خيار. قد يكون للتقنيات الأخرى طريقة أكثر دقة في توجيه السلوك، إما عن طريق إقناع أو إغراء المستخدمين (Verbeek 2006). على سبيل المثال يمكن لأجهزة الحاسوب الموجودة على متن بعض السيارات والتي تعرض معلومات حول استهلاك الوقود أن تشجع السائق على تحسين كفاءة استهلاك الوقود. تم تصميم هذه التقنيات بهدف واضح وهو جعل البشر يتصرفون بمسؤولية من خلال الحد من خياراتهم أو إقناعهم بالاختيار بطريقة معينة.

يلاحظ Verbeek أن منتقدي فكرة التطوير المتعمد للتكنولوجيا لفرض سلوك مرغوب أخلاقيًا يستندون على أنها تتخلص من المبادئ الديمقراطية للمجتمع وتهدد كرامة الإنسان. وحجتهم في ذلك أنه يحرم البشر من قدرتهم وحقوقهم في اتخاذ قرارات مدروسة والتصرف طواعية. بالإضافة إلى ذلك ادعى النقاد أنه إذا لم يتصرف البشر بحرية فلا يمكن اعتبارهم مسؤولين أخلاقياً. يمكن مواجهة هذه الاعتراضات -كما يقولVerbeek – من خلال الإشارة إلى القواعد والمعايير واللوائح ومجموعة من منتجات التقنية التي وضعت بالفعل شروطًا للإجراءات التي يمكن للبشر أو يُسمح لهم بأدائها. علاوة على ذلك، يلاحظ أن منتجات التقنية بصفتها من الوسطاء الفعالين تؤثر على أفعال وتجارب البشر لكنها لا تحددها. تحايل بعض الأشخاص بشكل مبتكر على صرامة قفل الكحول من خلال وجود مضخة هواء في السيارة (Vidal 2004). ومع ذلك فإن هذه الانتقادات تؤكد على القضايا المطروحة على المحك في أتمتة عمليات صنع القرار: يمكن للبرمجيات أن تقيّد حرية الفرد، وبالتالي تؤثر على المدى الذي يمكن أن يتحمل فيه المسؤولية الأخلاقية

تشير التحديات التي تطرحها البرمجيات فيما يتعلق بشروط إسناد المسؤولية إلى حدود الأطر الأخلاقية التقليدية في التعامل مع مسألة المسؤولية الأخلاقية. يبدو أن النماذج التقليدية للمسؤولية الأخلاقية قد تم تصميمها لتناسب الأفعال التي يقوم بها الفرد والتي لها عواقب مرئية مباشرة (Waelbers 2009). ومع ذلك وفي مجتمع اليوم الذي تتشابك إسهامات مسؤولية لفرد أو مجموعة من الأفراد مع الأجهزة التي يتفاعلون معها وكذلك مع نوايا وأفعال الأفراد الآخرين الذين يتعاملون مع تلك الأجهزة فقد يتطلب التعامل مع تقنيات الحاسوب نوعًا مختلفًا من التحليل لمن يمكن تحميله المسؤولية، وما يعنيه أن تكون متحملاً للمسؤولية الأخلاقية.

  • هل يمكن أن تصبح الحواسيب مُكلَّفةً بأفعال أخلاقية؟

تُحمل المسؤولية الأخلاقية وبشكل عام إلى الأفراد، وفي التقاليد الفلسفية الغربية فإن التكليف بالفعل الأخلاقي مفهوم يختص بالبشر حصريًا (Johnson 2001; Doorn and van de Poel 2012). وفي هذه التقاليد يمكن للبشر أن يقوموا بأفعال ذات مغزى أخلاقيًا على عكس الكائنات الأخرى أو الكوارث الطبيعية ، حيث يمكن للبشر اختيار التصرف بطريقة ما بدلاً من طريقة أخرى ومناقشة عواقب هذا الاختيار بحرية رغم أن بعض الناس يميلون إلى أنسنة أجهزة الحاسوب ومعاملتها كما لو كانت أفراداً مُكلَّفين (Reeves and Nass 1996؛ Nass and Moon 2000؛ Rosenthal-von der Pütten 2013)،ويتفق معظم الفلاسفة على أنه لا ينبغي التعامل مع البرمجيات كما لو أنها تتحمل المسؤولية الأخلاقية، ومع ذلك فإن حدود المفردات الأخلاقية التقليدية عند التفكير في الأبعاد الأخلاقية للحوسبة أدت ببعض المؤلفين إلى إعادة التفكير في مفهوم التكليف بالفعل الأخلاقي.

1.2 الحواسيب باعتبارها مُكلَّفة بالمسؤولية الأخلاقية

تعقيد البرمجيات المتزايد والتقدم في الذكاء الاصطناعي (AI)، يتحدى فكرة أن البشر هم الكيانات الوحيدة التي يمكن أو ينبغي أن تُحمّل بالمسؤولية الأخلاقية (Bechtel 1985؛ Kroes and Verbeek 2014). يقترح Dennett، على سبيل المثال، أن تحميل الحاسوب المسؤولية الأخلاقية أمر ممكن إذا كنا نتحدث عن نظام حاسوب ذي إرادة وكفاءة (Dennett 1997). النظام ذو الارادة حسب رأيه هو: نظام يمكن التنبؤ به وتفسيره من خلال عزو المعتقدات والرغبات إليه، مثله في ذلك مثل المنطق. بعبارة أخرى، يمكن وصف سلوكه بافتراض أن الأنظمة لديها حالات عقلية وأنها تتصرف وفقًا لما تعتقد أنه يجب أن تفعله، مع مراعاة معتقداتها ورغباتها. العديد من أجهزة الحاسوب اليوم، وفقًا لـــ Dennett، هي بالفعل أنظمة ذات ارادة، لكنها تفتقر إلى القدرة العليا على التفكير في حالاتها العقلية ذاتها. ليس لديها قناعات حول معتقداتها أو أفكار حول الرغبات. يقترح Dennett أن HAL 9000 الخيالي الذي ظهر في فيلم 2001: A Space Odyssey سيكون مؤهلاً ليكون نظامًا ذا ارادة عالي المستوى يمكن تحميله المسؤولية الأخلاقية. على الرغم من أن التطورات الحالية في الذكاء الاصطناعي قد لا تؤدي إلى HAL، إلا أنه يرى أن تطوير أنظمة الحاسوب ذات الارادة هو احتمال حقيقي.

يطرح Sullins أفكاراً تتماشى مع Dennett بأن التكليف بالفعل الأخلاقي ليس محصوراً بالبشر (2006). يقترح أن أنظمة الحاسوب -أو بشكل أكثر تحديدًا الروبوتات- يمكن أن تُكلَّف بالمسؤولية الأخلاقية عندما تتمتع بمستوى عالٍ من الاستقلالية، وعلى مستوى مناسب من التجريد يمكن اعتبار أنها تظهر سلوكًا مقصودًا. سيكون الروبوت -وفقًا لـــــــــــــ Sullins – مستقلاً في أداء مهامه وبشكل كبير إذا لم يكن تحت السيطرة المباشرة من قبل البشر. لاحظ أن Sullins يفسر الاستقلالية بمعنى ضيق مقارنة بمفهوم الاستقلالية في الفلسفة الأخلاقية التي ترى أنها خاصية بشرية. ويضيف كشرط ثالث أن الروبوت يجب أن يكون أيضًا في موقع المسؤولية ليقوم بفعل أخلاقي. أي أن الروبوت يؤدي دورًا اجتماعيًا يحمل معه بعض المسؤوليات وفي أداء هذا الدور يبدو أن الروبوت لديه “معتقدات” وفهم لواجباته تجاه المُكلَّفين الآخرين (ص 28). لتوضيح نوع القدرات المطلوبة لـ “للتكليف بفعل أخلاقي تام”، يقارن بينه وبين ممرضة بشرية. ويطرح حجته بأنه إذا كان الروبوت يتمتع بالاستقلالية الكافية للقيام بنفس واجبات الممرضة البشرية وكان لديه فهم لدوره ومسؤولياته في أنظمة الرعاية الصحية، فسيكون عندئذ “مكلفاً أخلاقياً وبشكل تام”. يؤكد Sullins أنه سيمضي بعض الوقت قبل أن تتوفر الآلات التي تتمتع بهذه الأنواع من القدرات، وبعض الروبوتات البسيطة اليوم يمكن اعتبار أنها مُكلّفة أخلاقياً من نوع ما،وبدرجة من التجريد تستحق الاعتبار الأخلاقي “(ص 29).

ترديدًا للاعتراضات على المشروع المبكر للذكاء الاصطناعي (strong) AI (Sack 1997)، [3] فقد اعترض بعض النقاد مثل Dennett and Sullins، على فكرة أن البرمجيات يمكن أن يكون لها قدرات تشابه قدرات البشر في التكليف الأخلاقي، كالحالات العقلية أو النية أو الحس السليم أو العاطفة (Johnson 2006; Kuflik 1999). فهم مثلاً يشيرون إلى أنه لا معنى لمعاملة البرمجيات مثل البشر المكلَّفين أخلاقياً بحيث يمكن تحميلهم المسؤولية، لأنهم لا يستطيعون المعاناة وبالتالي لا يمكن معاقبتهم (Sparrow 2007 ؛ Asaro 2011). كما أنهم يناقشون فكرة أن أجهزة الحاسوب ليست قادرة على التفكير الأخلاقي، لأنها لا تملك القدرة على فهم معنى المعلومات التي تعالجها (Stahl 2006). من أجل فهم معنى البيانات الأخلاقية، يجب أن يكون الفاعل جزءًا من شكل الحياة الذي تكون فيه البيانات ذات معنى، يجب أن تكون قادرة على المشاركة في الخطابات الأخلاقية. وعلى غرار النقاشات حول الذكاء الاصطناعي يواصل النقاد التمييز بين البشر وأجهزة الحاسوب من خلال ملاحظة القدرات المختلفة التي لا تمتلكها أجهزة الحاسوب ولا يمكن أن تمتلكها في المستقبل، والتي من شأنها أن تبرر إسناد التكليف الأخلاقية.

2.2 إيجاد أطراف مستقلين كي يُكلَّفوا بالمسؤولية الأخلاقية

ومن دون حجج واضحة تؤيد أو تعارض إمكانية أن تكون أنظمة الحاسوب المستقبلية مسؤولة أخلاقياً، بدلاً من ذلك: يهدف الباحثون في مجال “أخلاقيات الآلة” إلى تطوير النقاش من خلال التركيز على إنشاء نظام حاسوب يمكن أن يُكلَّف بالمسؤولية الأخلاقية مثله في ذلك مثل الانسان (Moor 2006). ركزت البحوث على تصميم وتطوير برمجيات يمكنها في بعض المواقف –وبشكل مستقل- تحديد الاختيار المناسب. والمكلفون بالمسؤولية الأخلاقية المستقلون (ويرمز لهم بالرمز AMAs) يجب أن يكونوا قادرين على التفكير في الأهمية الأخلاقية والاجتماعية لسلوكهم، والقيام بالخيارات المناسبة باستخدام قدراتهم لتقدير أثر أفعالهم على الكائنات الحية. (Allen and Wallach 2012  ؛ انظر كذلك Wallach and Allen 2009 and Allen et al. 2000) ). وهم يجادلون بأن هذه القدرات مطلوبة لأن أجهزة الحاسوب أصبحت أكثر تعقيدًا وقادرة على العمل دون تدخل بشري مباشر في سياقات وبيئات مختلفة. وهناك تقنيات قيد التطوير مثل الروبوتات العسكرية والسيارات والقطارات بدون سائق، وروبوتات الخدمة في المنزل والرعاية الصحية، و سيكون مطلوباً متها اتخاذ قرارات في مواقف أخلاقية تؤثر بشكل مباشر على سلامة ورفاهية البشر. وفي المستقبل قد يواجه الروبوت المكلف بالتخلص من القنابل قرارًا بشأن القنبلة التي يجب نزع فتيلها أولاً من أجل تقليل الخسائر إلى الحد الأدنى. وبالمثل فإن القرار الأخلاقي الذي قد يتعين على السيارة ذاتية القيادة اتخاذه هو ما إذا كانت ستتوقف بشكل مفاجئ من أجل كلب يقطع الطريق أو تتجنب خطر التسبب في إصابة سائق السيارة التي خلفها. مثل هذه القرارات تتطلب تقييماً سليماً للموقف. يتخذ مشغول الآلات حاليًا مثل هذه القرارات الأخلاقية، أو في الآلات المعتمدة على البرمجيات فإن القرار مدرج بالفعل برمجياتها. يطرح Wallach و Allen فكرة أن أخلاقيات الآلة تذهب إلى أبعد من جعل المهندسين مدركين للقيم التي يضمِّنونها في تصميم منتجاتهم، بل إن أخلاقيات الآلة تسعى إلى بناء عملية صنع القرار الأخلاقي في الآلات ذاتها.

لمزيد من تحديد ما يعنيه أن تتخذ أجهزة الحاسوب قرارات أخلاقية أو أن تضمّن “الأخلاق في الآلة”، يميز Moor بين ثلاثة أنواع مختلفة من المكلفين بالمسؤولية الأخلاقية:

  1. المُكلَّف الضمني
  2. 2.    المُكلَّف الصريح
  3. 3.    المُكلَّف الكامل (2006)

النوع الأول هو جهاز حاسوب يتم ادراج أخلاقيات المطورين في تصميم نظام التشغيل. يتم إنشاء تحمل المسؤولية الأخلاقية الضمنية للالتزام بمعايير وقيم السياقات التي تم تطوير البرمجيات فيها أو سيتم استخدامها فيها. فمثلاً تم تصميم أجهزة الصراف الآلي بحيث تتمتع بمستوى عالٍ من الأمان لمنع الأشخاص غير المصرح لهم من سحب الأموال من الحسابات. النوع الثاني: الصريح، وهو جهاز حاسوب يمكن ” تكليفه بالمسؤولية الأخلاقية”، وبعبارة أخرى: يمكن للنظام أن يتخذ القرار الصحيح في ضوء مدخلات على أساس نموذج أخلاقي. يمكن أن يعتمد النموذج الأخلاقي على النظريات الأخلاقية التقليدية، مثل الأخلاق الكانطية أو النفعية – اعتمادًا على تفضيلات المبرمجين. المكلف الصريح “يتخذ قرارات أخلاقية” نيابة عن المستخدمين (والمطورين) من البشر. وهؤلاء يشبهون المكلفين بالمسؤولية الأخلاقية المستقلين الذين وصفهم Allen and Wallach. النوع الأخير المكلفين بالمسؤولية بشكل كامل، يعرّفهم Moor على أنهم كيانات يمكنها إصدار أحكام أخلاقية ويمكن أن تبررها، تمامًا مثل البشر. وهو يدعي أنه على الرغم من عدم وجود تقنيات حاسوب اليوم يمكن وصفها بأنها تتحمل المسؤولية الأخلاقية الكاملة، فإن السؤال التجريبي هو ما إذا كان ذلك ممكنًا في المستقبل أم لا.

يثير الجهد المبذول لبناء AMAs (مكلفين بالمسؤولية الأخلاقية مستقلين) السؤال عن كيفية تأثير هذا الجهد على إسناد المسؤولية الأخلاقية. إذا لم تكن هذه التقنيات مُكلَّفة أخلاقياً مثل البشر، فهل يمكن تحميلهم المسؤولية الأخلاقية؟ نظرًا لأن البشر سيصممون هذه التقنيات لتتصرف ضمن أطر أخلاقية محددة مسبقًا، فمن المرجح أن المسؤولية ستظل تُنسب إلى هؤلاء الفاعلين البشريين وأولئك الذين ينشرون هذه التقنيات. ومع ذلك، كما يقر Allen and Wallach فإن خطر التركيز حصريًا على تزويد الروبوتات بقدرات اتخاذ القرار الأخلاقي، بدلاً من النظر أيضًا إلى الأنظمة الاجتماعية التقنية التي يتم تضمين هذه الروبوتات فيها وهو ما قد يتسبب في مزيد من الارتباك حول توزيع المسؤولية (2012). فالروبوتات القادرة على اتخاذ قرارات أخلاقية قد تواجه تحديات مماثلة في تحديد المسؤولية مثلها مثل التقنيات الأخرى التي تبتكر طرقاُ معقدة تتسبب في فقد العلاقة بين الضرر الحاصل والمتسبب فيه، مثل المبرمجين أو المستخدمين. التقنيات الأخرى التي تنتج تقنيات تجعل من الصعوبة بمكان تتبع الطرف المتسبب بالضرر، سواء من المبرمجين أو المستخدمين.

3.2 التوسع في مفهوم التكليف الأخلاقي

إن احتمال تزايد استقلال وذكاء الأجهزة البرمجية، بالإضافة إلى صعوبة تحميل المسؤولية على الأفراد المتسببين كل ذلك أدى إلى قيام كل من Floridi and Sanders باتباع نهج مختلف (2004). حيث يقترحان توسيع فئة المُكلّفين بالمسؤولية الأخلاقية لتشمل أجهزة الذكاء الاصطناعي، مع فصل مفهوم كل من “المكلف بالمسؤولية الأخلاقية” ومفهوم “المساءلة الأخلاقية” عن مفهوم “المسؤولية الأخلاقية”. وهم يؤكدون أن الوفاء بمتطلبات وجهة النظر التقليدية والتي تنص على إيجاد فرد محدد لتحمل مسؤولية البرمجيات سيحتاج منهجاً آخر (ص 372). بدلاً من ذلك، يقترحون أنه يجب الاعتراف بأجهزة الذكاء الاصطناعي باعتبارها “مُكلَّفة أخلاقياً” حيث يمكن محاسبتها، ولكن دون تحميلها المسؤولية. ولتوضيح ذلك فهم يقيمون مقارنة بين أجهزة الذكاء الاصطناعي والكلاب كمصادر للأفعال الأخلاقية. يمكن أن تقوم الكلاب بإجراء مسؤول أخلاقيًا، مثل إتلاف الممتلكات أو المساعدة في إنقاذ حياة شخص ما، كما في حالة كلاب البحث والإنقاذ. يمكننا تحديد الكلاب “كقائم بفعل أخلاقي” على الرغم من أننا عمومًا لا نكلفهم بالمسؤولية الأخلاقية، وفقًا Floridi and Sanders: فهم من قاموا بفعل أخلاقي ويمكن محاسبتهم أخلاقياً عن طريق تصحيحهم أو معاقبتهم.

يجادل Floridi and Sanders أنه يمكن النظر إلى أجهزة الذكاء الاصطناعي كمصدر للأفعال الأخلاقية تمامًا مثل الحيوانات، وبالتالي يمكن اعتبارها مسؤولة من الناحية الأخلاقية عندما يمكن تصورها على أنها تقوم بأفعال أخلاقية تحت مستوى مناسب من التجريد. يشير مفهوم مستويات التجريد إلى الموقف الذي يتبناه المرء تجاه شخص للتنبؤ بسلوكه وتفسيره. عند مستوى منخفض من التجريد، سنشرح سلوك النظام من حيث عملياته الميكانيكية أو البيولوجية. في مستوى أعلى من التجريد يمكن أن يساعد في وصف سلوك النظام من حيث المعتقدات والرغبات والأفكار. إذا كان من الممكن وصف نظام محوسب على مستوى عالٍ بما يكفي بأنه تفاعلي ومستقل وقابل للتكيف، فيمكن عندئذٍ تحميله المسؤولية وفقًا Floridi and Sanders (ص 352). وبالتالي، فإنه لا يتطلب الشخصية أو الإرادة الحرة ليكون الفاعل مسؤولاً أخلاقياً، بل على القائم بالفعل أن يتصرف كما لو كان لديه نوايا وكان قادرًا على الاختيار.

تكمن ميزة فصل المساءلة عن المسؤولية، وفقًا Floridi and Sanders، في أنه يركز على “التكليف بالمسؤولية الأخلاقية” والمساءلة واللوم بدلاً من تحديد الفرد المسؤول. “نحن نتجنب أن “نبحث عن مسؤول وبأي ثمن”، بسبب ضرورة تحديد الفاعل الأخلاقي البشري. يمكننا تحرير التطور التكنولوجي لـ من التقيد بنظرة التقييد المعيارية “(ص 376). ليس علينا أن نستجيب لضغوطات “تحميل المسؤولية على فرد معين” ثم نتحمل تبعات ذلك، بل يمكننا أن نحرر البرمجيات مثل AAs [المكلفون الاصطناعيون] من النظرة التقليدية التي تحد من مسؤولياتها. عندما تتصرف البرمجيات المُكلَّفة “بشكل سيئ” يمكن التعامل معها بشكل مباشر، عندما تكون سلوكياتها المستقلة وتعقيداتها تجعل من الصعب للغاية تحميل المسؤولية على فرد معين. يمكن مواءمة الأفعال غير الأخلاقية أو حذفها. ومن ثم يمكن توجيه المساءلة حتى عندما لا يمكن تحديد المسؤولية الأخلاقية.

يجادل منتقدو وجهة نظر Floridi’s and Sanders بشأن المساءلة والتكليف الأخلاقي بأن وضع تركيز التحليل على البرمجيات من خلال معاملتها “باعتبارها مُكلَّفة أخلاقياً” سوف يبعد المسؤولية عن الأفراد الذين ينشرونها ويطورونها. Johnson على سبيل المثال، يوضح أن تقنيات الحاسوب تظل متصلة بنوايا منشئيها ومستخدميها (2006). تجادل بأنه على الرغم من أن البرمجيات هي جزء من العالم الأخلاقي ويجب الاعتراف بها ككيانات لها ارتباط أخلاقي، فهي ليست مُكلَّفة أخلاقياً، لأنه ليس لها نوايا. وذلك لأنه ليس لها حالات ذهنية أو أهداف تأتي من حرية التصرف. وشددت على أنه على الرغم من أن هذه الأجهزة والبرمجيات ليس لها نوايا، إلا أن لها قصداً وتعمداً، لكن قصدها مرتبط بوظائفها. إنها مصنوعات من صنع الإنسان ويعكس تصميمها واستخدامها نوايا المصممين والمستخدمين. الأفراد الذين يستخدمون البرمجيات يقومون بتوظيفها لتحقيق أهدافهم. وهم كذلك يقومون بتفعيل توجهات المصممين والمطورين المضمنة في تلك البرمجيات. فمن خلال النشاط البشري يتم تصميم تكنولوجيا الحاسوب وتطويرها واختبارها وتركيبها وبدئها وتزويدها بالمدخلات والتعليمات لأداء مهام محددة، وبدون هذا النشاط البشري لن تفعل أجهزة الحاسوب شيئًا. يدعي Johnson إن تكليف أجهزة الحاسوب بالفعل الأخلاقي وبشكل مستقل سوف يفصلها عن السلوك البشري الذي يصنعها وينشرها ويستخدمها. إنه يصرف الانتباه عن القوى التي تشكل التطور التكنولوجي ويحد من إمكانية التدخل. على سبيل المثال فإنه يترك مسألة تحديد من هو المسؤول عن التعامل مع الخلل في البرمجيات أو مسألة البرمجيات غير المُكلَّفة أخلاقياً أو من يجب عليه أن يصحح الأحداث الضارة التي قد تسببها. كل هذا يؤجل السؤال حول من يجب أن يفسر الظروف التي يُسمح بموجبها للأجهزة المُكلَّفة أخلاقياً بالعمل تحت مسؤوليتها الخاصة (Noorman 2009).

ومع ذلك، فإن القول بأن التقنيات ليست مُكلَّفة أخلاقياً لا يعني أنها ليست جزءًا من الفعل الأخلاقي. أكد العديد من الفلاسفة أنه لا يمكن فهم المسؤولية الأخلاقية بشكل صحيح دون الاعتراف بالدور الفعال للتكنولوجيا في تشكيل العمل البشري (Jonas 1984؛ Verbeek 2006؛ Johnson and Powers 2005؛ Waelbers 2009). فمثلاً يقول Johnson: على الرغم من أن البرمجيات غير مُكلَّفة أخلاقياً، إلا أن كلاً من المبرمج والبرامج ذاتها ومستخدميها يجب أن يكون في بؤرة التقييم الأخلاقي، لأنهم جميعاً يقومون بعمل ما. يصنع البشر البرمجيات ويضمنونها قيمهم ونواياهم الخاصة لتترك أثراً في العالم، وبالتالي تستطيع هذه البرمجيات أن تساهم في تحديد ما يمكن للبشر فعله وما لا يمكنهم فعله وتؤثر على كيفية إدراكهم للعالم وتفسيره.

وبالمثل، يؤكد Verbeek أن البرمجيات منفردة لا يمكن تكليفها بفعل أخلاقي، لكن التكليف الأخلاقي نادراً ما يكون مسنداً للبشر “بطريقة بحتة”. يتضمن التكليف بالفعل الأخلاقي عمومًا أداة وسيطة تشكل السلوك البشري، وغالبًا بطريقة لم يتوقعها المصمم (2008). وتقوم البرمجيات بالمساهمة في تشكيل القرارات والإجراءات الأخلاقية

يقترح أن “التكليف بالعمل” في جميع حالات الفعل البشري يكون على ثلاثة أشكال:

  1. تكليف الإنسان الذي يقوم بالعمل.
  2. تكليف مصمم البرمجيات الذي ساهم في تشكيل الدور الوسيط للمنتجات التكنلوجية
  3. التكنلوجيا المستخدمة في تنفيذ الفعل البشري.

 يرتبط تكليف التكنلوجيا المستخدمة ارتباطًا وثيقًا بتكليف مصمميها ومستخدميها، ولكن لا يمكن اختزالها في أي منها. بالنسبة لـــ Verbeek فإن من يعمل أو يتخذ قرارات أخلاقية هو مركب من المكونات البشرية والتكنولوجية. الفعل الأخلاقي ليس محصوراً على البشر، بل في تركيبة معقدة من البشر والبرمجيات.

في أوراق لاحقة، يستكشف Floridi مفهوم “التضامن في تحمل المسؤولية الأخلاقية” (2013، 2016). ويطرح فكرة أن بعض النتائج المؤثرة على المسؤولية الأخلاقية لا يمكن اختزالها في الأفعال الأخلاقية لفرد ما. لا يزال أن هناك احتمال أن تؤدي أفعال فردية ليست ذات بعد أخلاقي إلى مؤثرات أخلاقية. ربما لا يقصد الأفراد التسبب في ضرر، ولكن مع ذلك قد يؤدي اشتراكهم في أفعال معينة إلى ضرر معنوي لشخص ما أو شيء ما. من أجل التعامل مع مشكلة تحديد المسؤولية الأخلاقية لمثل هذه الأعمال المشتركة، ويجادل Floridi بأن تركيز التحليل يجب أن ينتقل من المكلف بالفعل إلى المتضررين منه. يمكن بعد ذلك تقييم الفعل الأخلاقي من حيث الضرر الذي يلحق بالمتضررين وبغض النظر عن نوايا الفاعلين. ثم يركز تحديد المسؤولية على ما إذا كان القائمين بالفعل مسؤولين عن النتيجة بطريقة سببية أم لا، وهل هم قادرين على تعديل سلوكياتهم لمنع الضرر. إذا كان المكلفون بالفعل مسؤولين مستقلين – سواء كانوا برمجيات أم بشراً – وكان يمكنهم التفاعل مع بعضهم البعض وبيئاتهم، ويمكن أن يتعلموا من تفاعلاتهم، فيمكن تضامنهم في تحمل المسؤولية الأخلاقية وفقًا لـــــــ Floridi (2016).

3.إعادة النظر في مفهوم المسؤولية الأخلاقية

في ضوء الصعوبات الملحوظة في إسناد المسؤولية الأخلاقية، انتقد العديد من المؤلفين الطريقة التي يتم بها استخدام هذا المفهوم وتفسيره في سياق البرمجيات. وهم يدّعون أن النماذج أو الأطر التقليدية للتعامل مع المسؤولية الأخلاقية قاصرة، وتقدم تفسيرات مختلفة للصعوبات التي تواجهها.

1.3 تحميل المسؤولية الأخلاقية

هناك مدخل يقوم على إعادة التفكير في فكرة كيفية إسناد المسؤولية الأخلاقية (Gotterbarn 2001 ؛ Waelbers 2009). عندما يتعلق الأمر بالمتعاملين مع الحاسوب، يتوقع Gotterbarn أن يقوم المبرمج بتجنب تحمل المسؤولية من خلال تحميلها على فرد آخر. وهو يعزو هذه الاحتمالية إلى مفهومين خاطئين منتشرين حول المسؤولية. المفهوم الخاطئ الأول هو أن الحوسبة ممارسة أخلاقية محايدة. ويستكمل Gotterbarn: هذا الاعتقاد الخاطئ -بأن البرمجيات وممارسات بنائها محايدة أخلاقياً -غالبًا ما يُستخدم لتبرير التركيز التكنولوجي الضيق على تطوير نظام الحاسوب دون مراعاة السياق الأوسع الذي تعمل فيه هذه التقنيات. يمكن أن يكون لهذا التركيز الضيق عواقب وخيمة. يعطي Gotterbarn مثالًا للمبرمج الذي تم تكليفه بكتابة برنامج يمكنه خفض أو رفع جهاز الأشعة السينية على محور رأسي، بعد أن يقوم فني الأشعة السينية بتعيين الارتفاع المطلوب. ركز المبرمج على تقديم حل للمشكلة، لكنه فشل في مراعاة الظروف التي سيتم فيها استخدام الجهاز والحالات الطارئة التي قد تحدث. وبالتالي لم يفكر في احتمال أن يكون المريض موجوداً أثناء حركة الجهاز للأعلى والأسفل. أدى هذا السهو في النهاية إلى وقوع حادث مأساوي. تم سحق مريض بواسطة الجهاز، عندما قام أحد الفنيين بضبط الجهاز على ارتفاع منخفض جداً دون أن يدرك أن المريض لا يزال موجوداً تحت الجهاز. وفقًا لـ Gotterbarn، يتحمل المبرمجون مسؤولية أخلاقية للنظر في مثل هذه الحالات الطارئة، على الرغم من أنهم قد لا يُطلب منهم قانونًا القيام بذلك. يعد تصميم البرمجيات واستخدامها نشاطًا أخلاقيًا، وتفضيل تصميم معين على آخر له عواقب ملموسة.

الاعتقاد الخاطئ الثاني هو أن المسؤولية تتعلق فقط بتحديد من يوجّه له اللوم عند حدوث خطأ ما. يتبنى ممارسو الحاسوب، وفقًا لـ Gotterbarn “نموذج الممارسات الخاطئة” لتحميل المسؤولية، يركز هذا النموذج على تحديد الشخص المسؤول عن الحادث (2001). يؤدي “نموذج الممارسات الخاطئة” إلى جميع أنواع الأعذار للتهرب من المسؤولية. على وجه الخصوص تسمح تعقيدات البرمجيات لمصمميها ومستخدميها بالتهرب من تحمل المسؤولية. فعلى سبيل المثال: يمكنهم الادعاء – ولطول المسافة بين بين المطورين والآثار الناتجة عن التطبيقات التي ينشئونها – بعدم وجود رابط سببي مباشر وفوري من شأنه أن يربط المطورين بالخلل.، كما يمكن للمطورين أن يدّعوا بأن مساهمتهم في سلسلة الأحداث كانت ضئيلة، لأنهم جزء من فريق أو منظمة أكبر ولديهم فرصة محدودة للقيام بخلاف ذلك. نموذج سوء الممارسة وفقًا لـ Gotterbarn، يغري ممارسي الحاسوب لإبعاد أنفسهم عن المساءلة واللوم.

يستند المفهومان الخاطئان إلى وجهة نظر مختلفة عن المسؤولية تركز على ما يعفي المرء من اللوم والمسؤولية. يقول Ladd إن Gotterbarn يطلق عليها “المسؤولية السلبية” ويميزها عن المسؤولية الإيجابية (انظر أيضًا Ladd 1989). حيث تؤكد المسؤولية الإيجابية على ” الالتزام بمراعاة العواقب التي تترتب على أفعاله وأثرها على الآخرين” (Gotterbarn 2001، ص 227). تستلزم المسؤولية الإيجابية أن جزءًا من احترافية خبراء الحاسوب هو أنهم يسعون جاهدين لتقليل الأحداث غير المرغوبة التي يمكن توقعها. إنه يركز على ما يجب فعله بدلاً من إلقاء اللوم على الآخرين أو معاقبتهم على السلوك غير المسؤول. يجادل Gotterbarn بأن مهن البرمجة يجب أن تتبنى مفهوم المسؤولية الإيجابية، لأنها تؤكد على التزامات وواجبات ممارسي الحاسوب لمراعاة عواقب أفعال الفرد وتقليل احتمال التسبب في ضرر. وفقًا له يتحمل ممارسو الحاسوب مسؤولية أخلاقية لتجنب الضرر وتقديم منتج يعمل بشكل صحيح، بغض النظر عما إذا كان ستتم محاسبتهم إذا خرجت الأمور عن السيطرة.

التركيز على مستقبل المسؤولية الأخلاقية للمبرمجين والمطورين يثير السؤال عن المدى الذي تصل إليه هذه المسؤولية، لا سيما في البرمجيات التي يتم تصميمها بطريقة ” تشتت المسؤولية ” وصعوبات توقع الحالات الطارئة التي قد تسبب توقف النظام (Stieb 2008؛ Miller 2008). إلى أي مدى يستطيع المبرمجون أن يتوقعوا سوء استخدام برمجياتهم والحيلولة دون ذلك؟ هذه الأنظمة غير مفهومة بشكل عام لأي مبرمج، ويبدو من غير المحتمل أن تكون أنظمة الحاسوب المعقدة خالية تمامًا من الأخطاء. علاوة على ذلك لا يستطيع المصممون والمهندسون توقع جميع الظروف الممكنة التي ستعمل في ظلها منتجاتهم في نهاية المطاف. هل كان يجب على مصنعي الهواتف المحمولة توقع استخدام منتجاتهم في القنابل المزروعة على جوانب الطرق؟ السؤال الأكثر جوهرية هو ما إذا كان لدى مبرمجي الحاسوب مسؤولية تجاه خدمة كل أفراد المجتمع؟ أم أنها فقط تجاه المنظمات التي يعملون فيها؟

2.3 المسؤولية باعتبارها تطبيقاً

ويؤكد التمييز بين المسؤولية الإيجابية والسلبية على أن تحميل شخص ما المسؤولية الأخلاقية له وظيفة اجتماعية، والتي تقدم منظورًا مختلفاً حول هذا الموضوع (Stahl 2006؛ Eshleman 2016). سواء في المستقبل أو بأثر رجعي، تعمل المسؤولية لتنظيم العلاقات الاجتماعية بين الناس وبعضهم البعض، وبين الناس والمنظمات. تحدد التوقعات بين الناس للوفاء ببعض الالتزامات والواجبات وتوفر الوسائل لتصحيح أو تشجيع سلوك معين. على سبيل المثال: من المتوقع أن تبني شركة روبوتات وسائل وقائية تمنع الروبوتات من إيذاء البشر. إذا فشلت الشركة في الوفاء بهذا التوقع فستتم محاسبتها وفي بعض الحالات سيتعين عليها دفع تعويضات أو الخضوع لنوع آخر من العقوبة. يمكن أن تشجع العقوبة أو احتمال العقوبة الشركة على زيادة الاهتمام بسلامة النظام والموثوقية والتصميم السليم والمخاطر التي ينطوي عليها إنتاج الروبوتات. قد يدفع الشركة إلى اتخاذ إجراءات لمنع الحوادث في المستقبل. ومع ذلك، فقد يشجعها أيضًا على إيجاد طرق لتحميل اللوم على طرف آخر. تركز فكرة أن المسؤولية تتعلق بالعلاقات الشخصية والتوقعات حول الواجبات والالتزامات على ممارسات تحميل المسؤولية على شخص ما (Eshleman 2016).

إن الممارسات المختصة والهياكل الاجتماعية الموضوعة لإسناد المسؤولية ومحاسبة الأشخاص لها تأثير على كيفية ارتباطنا بالتقنيات. تؤكد Nissenbaum أنه يمكن إرجاع الصعوبات في إسناد المسؤولية الأخلاقية وإلى حد كبير إلى الخصائص المحددة للسياق التنظيمي والثقافي الذي يتم فيه استخدام البرمجيات. وتجادل بأن كيفية تصورنا لطبيعة وقدرات البرمجيات والقيود التي تنظمها سوف تؤثر على تبريرات أولئك الذين يطورون ويستخدمون تقنيات الحاسوب (1997). لقد لاحظت تآكلًا منهجيًا متزايداً للمساءلة في مجتمع البرمجيات، وفي تصورها أن “المساءلة” قيمة وممارسة تركز على منع الضرر والمخاطر.

تعني “المساءلة” أنه سيكون هناك شخص ما أو عدة أشخاص للإجابة عن تعطل الأنظمة الحيوية والتي قد تعرضها لخطر الإصابة أو تتسبب في تضرر البنية التحتية أو خسائر مالية كبيرة، وكذلك الإجابة عن الخلل الذي يتسبب في خسائر فردية في الوقت أو الراحة أو الطمأنينة. (1994، ص 74). يمكن استخدامها “أداة قوية لتحفيز الممارسات الأفضل، وبالتالي أنظمة يمكن الاعتماد عليها وجديرة بالثقة” (1997، ص 43). إن تحميل الأشخاص المسؤولية عن الأضرار أو المخاطر التي تسببها أنظمة الحاسوب يوفر حافزًا قويًا لتقليلها ويمكن أن يوفر نقطة انطلاق لتحديد العقوبة العادلة.

ومع ذلك فإن الممارسات الثقافية والتنظيمية تفعل العكس بسبب “الظروف التي يتم في ظلها تطوير تقنيات الحاسوب ونشرها بشكل عام، إلى جانب المفاهيم الشائعة حول طبيعة وقدرات وقيود البرمجيات” (ص 43). يحدد Nissenbaum أربعة عوائق أمام المساءلة في مجتمع اليوم: (1) مشكلة “تشتت المسؤولية” (2) قبول أخطاء الحاسوب كعنصر متأصل في البرمجيات الكبيرة، (3) استخدام الحاسوب كبش فداء و (4) الملكية بدون التزامات. وفقًا لNissenbaum ، يميل الناس إلى التنصل من المسؤولية وإلقاء اللوم على الآخرين عند وقوع الحوادث. مشكلة ” تشتت المسؤولية ” وفكرة أن أخطاء البرامج هي منتج ثانوي حتمي لأنظمة الحاسوب المعقدة يتم قبولها بسهولة كأعذار لعدم الرد على النتائج الضارة. يميل الناس أيضًا إلى توجيه أصابع الاتهام إلى مدى تعقيد الحاسوب، وعندما تسوء الأمور يدافعون عن موقفهم بأنه “كان خطأ الحاسوب”. أخيرًا، أدركت Nissenbaum ميل الشركات للمطالبة بملكية البرامج التي تطورها، مع رفض الالتزامات التي تصاحب الملكية. وفي وقتنا الحالي تأتي برامج الحاسوب مع اتفاقيات ترخيص ممتدة تؤكد ملكية الشركة المصنعة للبرنامج، ولكنها تتنصل من أي مسؤولية عن جودة المنتج أو أدائه. كما أنهم يرفضون أي مسؤولية عن الأضرار اللاحقة والناتجة عن عيوب البرنامج.

وترى Nissenbaum أن هذه الحواجز الأربعة تقف في طريق “ثقافة المساءلة” التي تهدف إلى الحفاظ على خطوط واضحة للمساءلة. تعزز مثل هذه الثقافة إحساسًا قويًا بالمسؤولية كفضيلة يجب تشجيعها وكل شخص مرتبط بنتيجة أعمال معينة يكون مسؤولاً عنها. تختلف المساءلة، بحسب Nissenbaum، عن الالتزام، حيث أن الالتزام تتعلق بالبحث عن شخص يوجه له اللوم ويتحمل التعويض عن الأضرار التي نتجت عن الحادث. بمجرد العثور على هذا الشخص فهذا يعني براءة الآخرين، مما قد يشجع الناس على البحث عن أعذار، مثل إلقاء اللوم على الحاسوب. المساءلة، ومع ذلك، تنطبق على جميع المعنيين. إنها تتطلب نوعًا معينًا من السياق المنظمي، حيث تعمل “القابلية للمساءلة” لإغراء الناس بأن يولوا اهتماماً أكبر بسلامة النظام وموثوقيته وتصميمه السليم وذلك من أجل ترسيخ ثقافة المساءلة. إن المنظمة التي تعطي قيمة أقل للمساءلة والتي لديها القليل من الاهتمام بالمسؤوليات في تنظيم عمليات الإنتاج الخاصة بها من المرجح أن تصبح منتجاتها غامضة. يوضح تحليل Nissenbaum أن ممارساتنا المتمثلة في تحميل شخص ما المسؤولية -الطرق المعمول بها لمساءلة الأشخاص ونقل التوقعات حول الواجبات والالتزامات -تتغير باستمرار ويتم مناقشتها جزئيًا كاستجابة لظهور تقنيات جديدة (انظر أيضًا Noorman 2012).

يجادل Nissenbaum بأن السياق الذي يتم فيه تطوير التقنيات واستخدامها له تأثير كبير على إسناد المسؤولية الأخلاقية، لكن العديد من المؤلفين شددوا على أنه لا يمكن فهم المسؤولية الأخلاقية بشكل صحيح دون الاعتراف بالدور الفعال للتكنولوجيا في تشكيل العمل البشري (Jonas 1984؛ فيربيك 2006؛ Johnson and Powers 2005؛ Waelbers 2009). وفقًا Johnson and Powers  لا يكفي مجرد إلقاء نظرة على ما ينوي البشر وما يفعلونه. “إن إسناد المزيد من المسؤولية إلى الأشخاص الذين يتعاملون مع التقنية يتطلب السيطرة على سلوك التقنية ذاتها” (ص 107). على المرء أن يفكر في الطرق المختلفة التي تكون المنتجات التقنية وسيطاً لتصرفات الانسان. وبالتالي، فإن المسؤولية الأخلاقية لا تتعلق فقط بكيفية تأثير تصرفات شخص أو مجموعة من الأشخاص على الآخرين بطريقة ذات دلالة أخلاقية؛ إنه يتعلق أيضًا بكيفية تشكيل أفعالهم بواسطة التقنية. لا تقع المسؤولية الأخلاقية من هذا المنظور في علاقة فردية أو شخصية، ولكنها تتوزع بين البشر والتقنيات.

الخلاصة

لقد تحدت تقنيات الحاسوب المفاهيم التقليدية للمسؤولية الأخلاقية وأثارت أسئلة حول كيفية توزيع المسؤولية بشكل متناسب. هل يمكن أن يظل البشر مسؤولين عن سلوك تقنيات الحاسوب المعقدة التي لا يملكون سوى سيطرة محدودة عليها أو فهمها؟ هل البشر هم المكلفون الوحيدون الذين يمكن تحميلهم المسؤولية الأخلاقية أم يمكن توسيع مفهوم المكلفين أخلاقياً ليشمل كيانات حاسوبية؟ ردًا على مثل هذه الأسئلة، أعاد الفلاسفة فحص مفاهيم التكليف الأخلاقي والمسؤولية الأخلاقية. على الرغم من عدم وجود إجماع واضح على ما يجب أن تستتبعه هذه المفاهيم في مجتمع رقمي متزايد، إلا أن ما يتضح من المناقشات هو أن أي انعكاس لهذه المفاهيم سيحتاج إلى معالجة كيفية تأثير هذه التقنيات على عمل الإنسان وايضاح الحدود بين تقنيات الحاسوبية والبشر.


المراجع

  • Allen, C. & W. Wallach, 2012. “Moral Machines. Contradiction in Terms or Abdication of Human Responsibility?” in P. Lin, K. Abney, and G. Bekey (eds.), Robot ethics. The ethics and social implications of robotics. Cambridge, Massachusetts: MIT Press.
  • Allen, C., G. Varner & J. Zinser, 2000. “Prolegomena to any Future Artificial Moral Agent,” Journal of Experimental and Theoretical Artificial Intelligence, 12: 251–261.
  • Allen, C. W. Wallach & I. Smit, 2006. “Why Machine Ethics?” Intelligent Systems, IEEE , 21(4): 12–17.
  • Angwin, J., J. Larson, S. Mattu & L. Kirchner, 2016. “Machine Bias. There is software that is used across the county to predict future criminals. And it is biased against blacks”, ProPublica, May 23, 2016, available online.
  • Asaro, P., 2011. “A Body to Kick, But Still No Soul to Damn: Legal Perspectives on Robotics,” in P. Lin, K. Abney, and G. Bekey (eds.) Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, MA: MIT Press.
  • Bechtel, W., 1985. “Attributing Responsibility to Computer Systems,” Metaphilosophy, 16(4): 296–306.
  • Bijker, W. E., T. P. Hughes, & T. Pinch, 1987. The Social Construction of Technological Systems: New Directions in the Sociology and History of Technology, London, UK: The MIT Press.
  • Bovens, M. & S. Zouridis, 2002. “From street-level to system-level bureaucracies: how information and communication technology is transforming administrative discretion and constitutional control,” Public Administration Review, 62(2):174–184.
  • Boyd, D. & K. Crawford, 2012. “Critical Questions for Big Data: Provocations for a Cultural, Technological, and Scholarly Phenomenon,” Information, Communication, & Society 15(5): 662–679.
  • Coeckelbergh, M. & R. Wackers, 2007. “Imagination, Distributed Responsibility and Vulnerable Technological Systems: the Case of Snorre A,” Science and Engineering Ethics, 13(2): 235–248.
  • Cummings, M. L., 2004. “Automation Bias in Intelligent Time Critical Decision Support Systems,” Paper presented at the AIAA 1st Intelligent Systems Technical Conference, Chicago.
  • Dennett, D. C., 1997. “When HAL Kills, Who’s to Blame? Computer Ethics,” in HAL’s Legacy: 2001’s Computer as Dream and Reality, D. G. Stork (ed.), Cambridge, MA: MIT Press.
  • Denning, P. J., 1989. “The Science of Computing: The Internet Worm,” American Scientist, 77(2): 126–128.
  • Doorn, N. & van de Poel, I., 2012. “Editors Overview: Moral Responsibility in Technology and Engineering,” Science and Engineering Ethics, 18: 1–11.
  • Eshleman, A., 2016. “Moral Responsibility,” in The Stanford Encyclopedia of Philosophy (Winter 2016 Edition), E. N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/win2016/entries/moral-responsibility/>.
  • Fisher, J. M., 1999. “Recent work on moral responsibility,” Ethics, 110(1): 93–139.
  • Floridi, L., & J. Sanders, 2004. “On the Morality of Artificial Agents,” Minds and Machines, 14(3): 349–379.
  • Floridi, L., 2013. “Distributed morality in an information society,” Science and Engineering Ethics, 19(3): 727–743.
  • –––, 2016. “Faultless responsibility: on the nature and allocation of moral responsibility for distributed moral actions,” Philosophical Transactions of the Royal Society A (Mathematical Physical and Engineering Sciences), 374(2083); doi: 10.1098/rsta.2016.0112
  • Friedman, B., 1990. “Moral Responsibility and Computer Technology,” Paper Presented at the Annual Meeting of the American Educational Research Association, Boston, Massachusetts.
  • ––– (ed.), 1997. Human Values and the Design of Computer Technology, Stanford: CSLI Publications; New York: Cambridge University Press
  • Gotterbarn D., 2001. “Informatics and professional responsibility,” Science and Engineering Ethics, 7(2): 221–230.
  • Graubard, S. R., 1988. The Artificial Intelligence Debate: False Starts, Real Foundations, Cambridge Massachusetts: The MIT Press.
  • Gray, C. H., 1997. “AI at War: The Aegis System in Combat,” Directions and Implications of Advanced Computing, D. Schuler, (ed.), New York: Ablex, pp. 62–79.
  • Hart, H. L. A., 1968. Punishment and Responsibility, Oxford: Oxford University Press.
  • Hughes, T.P., 1987. “The evolution of Large Technological System,” in W. E. Bijker, T. P. Hughes, & T. Pinch (eds.), The Social Construction of Technological Systems, Cambridge, MA: The MIT Press, pp. 51–82.
  • IJsselsteijn, W., Y. de Korte, C. Midden, B. Eggen, & E. Hoven (eds.), 2006. Persuasive Technology, Berlin: Springer-Verlag.
  • Johnson, D. G., 2001. Computer Ethics, 3rd edition, Upper Saddle River, New Jersey: Prentice Hall.
  • –––, 2006. “Computer Systems: Moral Entities but not Moral Agents,” Ethics and Information Technology, 8: 195–204.
  • Johnson, D. G. & T. M. Power, 2005. “Computer systems and responsibility: A normative look at technological complexity,” Ethics and Information Technology, 7: 99–107.
  • Jonas, H., 1984. The Imperative of Responsibility. In search of an Ethics for the Technological Age, Chicago: The Chicago University Press.
  • Kroes, P.& P.P. Verbeek (eds.), 2014. The Moral Status of Technical Artefacts, Dordrecht: Springer
  • Kuflik, A., 1999. “Computers in Control: Rational Transfer of Authority or Irresponsible Abdication of Authority?” Ethics and Information Technology, 1: 173–184.
  • Ladd. J., 1989. “Computers and Moral Responsibility. A Framework for an Ethical Analysis,” in C.C. Gould (ed.), The Information Web. Ethical and Social Implications of Computer Networking, Boulder, Colorado: Westview Press, pp. 207–228.
  • Latour, B., 1992. “Where are the Missing Masses? The Sociology of a Few Mundane Artefacts,” in W. Bijker & J. Law (eds.), Shaping Technology/Building Society: Studies in Socio-Technical Change, Cambridge, Massachusetts: The MIT press, pp. 225–258.
  • Leveson, N. G. & C. S. Turner, 1993. “An Investigation of the Therac-25 Accidents,” Computer, 26(7): 18–41.
  • Leveson, N., 1995. “Medical Devices: The Therac-25,” in N. Leveson, Safeware. System, Safety and Computers, Boston: Addison-Wesley.
  • Matthias, A., 2004. “The responsibility gap: Ascribing responsibility for the actions of learning automata,” Ethics and Information Technology, 6: 175–183.
  • McCorduck, P., 1979. Machines Who Think, San Francisco: W.H. Freeman and Company.
  • Miller, K. W., 2008. “Critiquing a critique,” Science and Engineering Ethics, 14(2): 245–249.
  • Moor, J.H., 2006. “The Nature, Importance, and Difficulty of Machine Ethics,” Intelligent Systems (IEEE), 21(4): 18–21.
  • Nissenbaum, H., 1994. “Computing and Accountability,” Communications of the Association for Computing Machinery, 37(1): 72–80.
  • –––, 1997. “Accountability in a Computerized Society,” in B. Friedman (ed.), Human Values and the Design of Computer Technology, Cambridge: Cambridge University Press, pp. 41–64.
  • Nass, C. & Y. Moon, 2000. “Machines and mindlessness: Social responses to computers,” Journal of Social Issues, 56(1): 81–103.
  • Noorman, M., 2009. Mind the Gap: A Critique of Human/Technology Analogies in Artificial Agents Discourse, Maastricht: Universitaire Pers Maastricht.
  • –––, 2012. “Responsibility Practices and Unmanned Military Technologies,” Science and Engineering Ethics, 20(3): 809–826.
  • Parasuraman, R. & V. Riley, 1997. “Humans and Automation: Use, Misuse, Disuse, Abuse,” Human Factors: the Journal of the Human Factors Society, 39(2): 230–253.
  • Reeves, B. & C. Nass, 1996. The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places, Cambridge: Cambridge University Press.
  • Rosenthal-von der Pütten, A. M., Krämer, N. C., Hoffmann, L., Sobieraj, S., & Eimler, S. C., 2013. “An experimental study on emotional reactions towards a robot,” International Journal of Social Robotics, 5 (1): 17–34.
  • Sack, W., 1997. “Artificial Human Nature,” Design Issues, 13: 55–64.
  • Sartor, G. and M. Viola de Azevedo Cunha, 2010. “The Italian Google-Case: Privacy, Freedom of Speech and Responsibility of Providers for User-Generated Contents,” International Journal of Law and Information Technology, 18(4): 356–378.
  • Searle, J. R., 1980. “Minds, brains, and programs” Behavioral and Brain Sciences, 3(3): 417–457.
  • Singel, R., 2010. “Does Italy’s Google Conviction Portend More Censorship?” Wired (February 24th, 2010), available online.
  • Sparrow, R., 2007. “Killer Robots,” Journal of Applied Philosophy, 24(1): 62–77.
  • Stahl, B. C., 2004. “Information, Ethics, and Computers: The Problem of Autonomous Moral Agents,” Minds and Machines, 14: 67–83.
  • –––, 2006. “Responsible Computers? A Case for Ascribing Quasi-Responsibility to Computers Independent of Personhood or Agency,” Ethics and Information Technology, 8: 205–213.
  • Stieb, J. A., 2008. “A Critique of Positive Responsibility in Computing,” Science and Engineering Ethics, 14(2): 219–233.
  • Suchman, L., 1998. “Human/machine reconsidered,” Cognitive Studies, 5(1): 5–13.
  • Sullins, J. P., 2006. “When is a Robot a Moral Agent?” International Review of Information Ethics, 6(12): 23–29.
  • Taddeo, M. and L. Floridi, 2015. “The Debate on the Moral Responsibilities of Online Service Providers,” Science and Engineering Ethics, 22(6): 1575–1603.
  • U.S. Department of Defense, 2009. “FY2009–2034 Unmanned Systems Integrated Roadmap,” available online.
  • Van den Hoven, J., 2002. “Wadlopen bij Opkomend Tij: Denken over Ethiek en Informatiemaatschappij,” in J. de Mul (ed.), Filosofie in Cyberspace, Kampen, the Netherlands: Uitgeverij Klement, pp. 47–65
  • Verbeek, P. P., 2006. “Materializing Morality,” Science, Technology and Human Values, 31(3): 361–380.
  • Vidal, J., 2004. “The alco-lock is claimed to foil drink-drivers. Then the man from the Guardian had a go …,” The Guardian, August 5th, 2004.
  • Waelbers, K., 2009. “Technological Delegation: Responsibility for the Unintended,” Science & Engineering Ethics, 15(1): 51–68.
  • Wallach, W. and C. Allen, 2009. Moral Machines. Teaching Robots Right from Wrong, Oxford: Oxford University Press.
  • Whitby, B., 2008. “Sometimes it’s hard to be a robot. A call for action on the ethics of abusing artificial agents,” Interacting with Computers, 20(3): 326–333.
  • Zuboff, S., 1982. “Automate/Informate: The Two Faces of Intelligent Technology,” Organizational Dynamics, 14(2): 5–18

أدوات أكاديمية

How to cite this entry.
Preview the PDF version of this entry at the Friends of the SEP Society.
Look up this entry topic at the Internet Philosophy Ontology Project (InPhO).
Enhanced bibliography for this entry at PhilPapers, with links to its database.

مصادر أخرى على الإنترنت

Journals On-line

  • Ethics and Information Technology: a peer-reviewed journal dedicated to advancing the dialogue between moral philosophy and the field of information and communication technology (ICT).
  • Science and Engineering Ethics: Science and Engineering Ethics is a multi-disciplinary journal that explores ethical issues of direct concern to scientists and engineers.

Centers

Organizations

Blogs

  • Moral machines: blog on the theory and development of artificial moral agents and computational ethics.

مداخل ذات صلة

computer and information ethics | information technology: and moral values | information technology: phenomenological approaches to ethics and | moral responsibility | technology, philosophy of

Acknowledgments

This material is based upon work supported by the National Science Foundation under Grant No. SES 1058457.

قائمة المصطلحات

المسؤولية الأخلاقيةmoral responsibility
المجتمع التقنيtechnological society
الوسطاء الفعالون تجنبنا “وسائط” منعاً للبس مع مصطلح “Media”active mediators:  “actively co-shape people’s being in the world: their perception and actions, experience and existence”
المكلفagent : The person or group that performs the action and causes something to happen
المتضررpatient : The person, group or thing that is affects by the action
فجوة المسؤوليةresponsibility gap
المساهمة السببيةCausal contribution
المكلف بالفعل الأخلاقيmoral agency
المساءلةaccountability
البرمجياتcomputer systems
التقنيات الحاسوبيةcomputer technologies
تشتت المسؤوليةmany hands
طائرات مسيرة (دون طيار)drone
أنظمة و برامج (كل ما هو غير ملموس وغير مادي في العالم الرقمي)software
الانسان الآليrobots
التحيز العنصريracial bias
رسالة مشفرة تفيد بوقوع خطأcryptic error messages
الملفات المرفوعة حيث أن البعد الاصطلاحي لمفردة “مادة” يتناقض مع طبيعة الملف الإلكتروني غير الماديuploaded material
قانون حماية البيانات (الخصوصية)data protection act
الاستقلاليةAutonomy the right or condition of self-government
الإدارة العامة (الحكومية)public administration
حرية التصرف الاداريadministrative discretion
يؤنسن الحواسيب  Anthropomorphize computers attribute human characteristics or behavior to (a god, animal, or object). to ascribe human form or attributes to (an animal, plant, material object, etc.)
الذكاء الاصطناعيArtificial Intelligence (AI)
البرمجيات المُكَلَّفةArtificial Agents (AAs)
التضامن في تحمل المسؤولية الأخلاقيةdistributed moral actions
مصطلح في “الإدارة العامة” يدل على الوظيفية الحكومية التي تحتك مع الناس وتتعامل معهم لتطبيق الأنظمةstreet-level bureaucrats
اختبار ذاتي يمنع السائق من تشغيل السيارة إذا كانت نسبة الكحول لديه عاليةanti-alcohol lock
المكلفون المستقلون بالفعل الأخلاقيautonomous moral agents (AMAs)

[1] Noorman, Merel, “Computing and Moral Responsibility”, The Stanford Encyclopedia of Philosophy (Spring 2020 Edition), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/spr2020/entries/computing-responsibility/>.

[2]  “street-level bureaucrats”مصطلح في الإدارة العامة يدل على الوظيفية الحكومية التي تحتك مع الناس وتتعامل معهم لتطبيق الأنظمة (المترجم)

[3] “anti-alcohol lock” اختبار ذاتي يمنع السائق من تشغيل السيارة اذا كانت نسبة الكحول لديه عالية. (المترجم)