تقنية المعلومات والقيم الأخلاقية – موسوعة ستانفورد للفلسفة / ترجمة: فاتن الدعجاني، مراجعة: سيرين الحاج حسين


مدخل فلسفي شامل حول العلاقة بين تقنية المعلومات (Information technology) والقيم الأخلاقية وتحدياتها؛ نص مترجم لد. جون سولينز، ومنشور على (موسوعة ستانفورد للفلسفة). ننوه بأن الترجمة هي للنسخة المؤرشفة في الموسوعة على هذا الرابط، والتي قد تختلف قليلًا عن النسخة الدارجة للمقالة، حيث أنه قد يطرأ على الأخيرة بعض التحديث أو التعديل من فينة لأخرى منذ تتمة هذه الترجمة. وختامًا، نخصّ بالشكر محرري موسوعة ستانفورد، وعلى رأسهم د. إدوارد زالتا، على تعاونهم، واعتمادهم للترجمة والنشر على مجلة حكمة.


يترك كل نشاط نقوم به معلومات يمكن تسجيلها وتخزينها لاستخدامها لاحقًا. على سبيل المثال، قد يستخدم الشخص الأشكال القديمة من تقنيات المعلومات كالقلم، الورق، ودفتر يوميات يدون فيه بالتفصيل كل الأشياء التي فعلها وفكر فيها خلال اليوم. وقد يكون تسجيل كل هذه المعلومات بهذه الطريقة مهمة شاقة؛ لكن هناك قائمة متزايدة من التقنيات وتطبيقات البرامج التي يمكن أن تساعدنا في جمع أشكال البيانات التي يمكن مبدئيًا وعمليًا تجميعها معًا لاستخدامها في إنشاء ملف معلومات شخصي عنك، اي دفتر يوميات رقمي يحتوي على ملايين المداخل. بعض الأمثلة على هذا قد تكون: قائمة مفصلة بجميع معاملاتك الاقتصادية، تحديد موقع المكان الذي سافرت اليه عن طريق GPS، قائمة بجميع عناوين المواقع التي قمت بزيارتها على الانترنت وتفاصيل كل بحث قمت به، قائمة بجميع العلامات الحيوية الخاصة بك مثل ضغط الدم ومعدل ضربات القلب، كل ما تتناوله من طعام في اليوم، وأي نوع آخر من البيانات التي يمكن قياسها. من خلال هذه التجربة الفكرية ستبدأ في رؤية الكمية المعقدة من البيانات التي تتركها كل يوم وكيف يمكن جمعها وتخزينها بكفاءة من خلال استخدام تقنيات المعلومات. ويمكننا هنا أن نبدأ في رؤية كيف يمكن لتقنية المعلومات أن تؤثر على القيم الأخلاقية. بما أن عملية جمع البيانات هذه أصبحت آلية وحاضرة بشكل كبير، علينا أن نسأل: من الذي يتحكم في جمع هذه البيانات وماذا يفعل بها عند جمعها وتخزينها؟ ما هي المعلومات التي يمكن نشرها، ما هي المعلومات الخاصة، وماهي المعلومات التي يمكن السماح لأطراف ثالثة مثل الشركات بامتلاكها؟ تشكل المسائل المتعلقة بإنتاج المعلومات، والوصول اليها، والتحكم في أساسها التحديات الأخلاقية التي تواجه استخدام تقنية المعلومات.

يمكن لأي شخص أن يناقش بأن الوضع الموصوف هذا لا يختلف عن القضايا الأخلاقية التي تدور حول الإنتاج، الوصول إلى أساسيات الحياة، والتحكم في أي منها. فإذا كان هناك طرف يتمتع بحق الإنتاج الحصري و / أو الوصول لبعض الموارد الطبيعية، و / أو التحكم فيها، فذلك يستدعي منع الآخرين من استخدام هذا المورد دون موافقة المالك الحصري. لكن الأمر ليس بالضرورة هكذا مع المعلومات الرقمية، فالمعلومات الرقمية غير محجوبة، مما يعني بأنه يمكننا جميعًا، من الناحية النظرية على الأقل، امتلاك نفس المعلومات الرقمية دون منع الآخرين من استخدامها. وهذا بسبب أن نسخ المعلومات الرقمية من مصدر إلى آخر لا يتطلب حذف النسخة السابقة. على عكس الشيء الملموس، فنظريًا يمكننا جميعًا امتلاك نفس الشيء الرقمي حيث يمكن نسخه بشكل لامتناهي مع الاحتفاظ بصحته. وبما أن عمل هذه النسخ في الغالب يكون بدون أي تكلفة تقريبًا، فلا يوجد عائق تقني أمام انتشار المعلومات طالما أن هناك أشخاصًا على استعداد لنسخها وتوزيعها. المطالبات الأخلاقية أو العدالة الاقتصادية فقط هي التي قد تمنع توزيع أشكال معينة من المعلومات. تعد الوسائط الترفيهية الرقمية، كالأغاني أو الفيديو مثلًا ساحات معارك مستمرة يقاتل فيها مستخدمي ومنتجي الوسائط الرقمية من أجل تقليص أو تمديد التوزيع المجاني لهذه المواد. ولذلك، فإن فهم دور القيم الأخلاقية في تقنية المعلومات شيء لا غنى عنه لتصميم واستخدام هذه التقنيات (Johnson, 1985, Moore, 1985, Nissenbaum, 1998, Spinello, 2001). وتجدر الإشارة إلى أن هذا المدخل لن يتناول بشكل مباشر المنهج الظواهري لأخلاقيات تقنية المعلومات، بما أن هناك مدخل مفصل ومتاح عن هذا الموضوع (انظر مدخل بالمناهج الظاهراتية للأخلاق وتقنية المعلومات)

 

1.مقدمة

2.التحديات الأخلاقية لتقنية المعلومات

 2.1.السمة الأساسية لتقنية المعلومات

2.1.1.القيم الأخلاقية في تسجيل المعلومات

2.1.2.القيم الأخلاقية في إيصال والوصول إلى المعلومات

2.1.3.القيم الأخلاقية في تنظيم وتركيب المعلومات

2.2.المفارقة الأخلاقية لتقنيات المعلومات

3.تحديات أخلاقية محددة على المستوى الثقافي

3.1.وسائل التواصل الاجتماعي والشبكات

3.1.1.العاب وعوالم الإنترنت

3.1.2.جاذبية عوالم الألعاب الافتراضية

3.1.3.مفارقة الشفافية التقنية

3.3.البرامج الضارة، برامج التجسس والحرب المعلوماتية

3.4.مخاوف مستقبلية

3.4.1.تسريع التغيير

3.4.2.الذكاء الاصطناعي والحياة الاصطناعية

3.4.3.الروبوتات والقيم الأخلاقية

4.تقنيات المعلومات الأخلاقية

4.1.تقنية المعلومات كنموذج للاكتشاف الأخلاقي

4.2.تقنية المعلومات كنظام أخلاقي

4.3.الكائنات المعلوماتية كأدوات أخلاقية

  • فهرس

  • أدوات أكاديمية

  • مصادر انترنت اخرى

  • مداخل ذات صلة


 

 

1.مقدمة

دخلت تقنية المعلومات حياة الناس في كل مكان بأشكال متعددة مثل أجهزة الكمبيوتر الشخصية، الهواتف الذكية، تقنيات الإنترنت، والذكاء الاصطناعي والروبوتات. وفي الحقيقة، هذه القائمة في ازدياد مستمر وهناك أشكال جديدة تدخل جميع جوانب الحياة اليومية.  وفي جوهر كل هذه التقنيات يوجد شكلًا من أشكال الحوسبة يتفاعل المستخدمين معها في الغالب من خلال تطبيقات وأنظمة تشغيل برامج الأخرى. تفتح هذه التقنيات، في بعض الحالات مثل الألعاب الضخمة المتعددة اللاعبين على الإنترنت (انظر 3.1.1)، سبل جديدة يتفاعل البشر فيها مع بعضهم البعض. يتم استخدام تقنيات المعلومات في تسجيل المعلومات، إيصالها، تجميعها، أو تركيبها من خلال استخدام تقنيات الكمبيوتر. يمكن فهم المعلومات على أنها بيانات مفيدة، تعليمات، أو محتوى رسالة مفيد. ومعنى الكلمة حرفيًا هو “إعطاء شكل” أو تشكيل أفكار شخص. قد تكون السمة الأساسية لتقنية المعلومات مثل الخيط الذي يُربط حول الاصبع والذي يُستخدم لتذكير شخص ما بأن لديه مهمة محددة لإنجازها في ذلك اليوم. ويمثل الخيط هنا مسالة أكثر تعقيدًا، فعلى سبيل المثال “اشتر مواد غذائية قبل العودة إلى المنزل.” وليس الخيط هو المعلومات لكنه يرمز إلى المعلومات ولذلك يجب تفسير هذا الرمز بشكل صحيح حتى يكون مفيدًا. وهذا يطرح سؤال: ما هي المعلومات؟

 

لسوء الحظ لا يوجد تعريف مُرضٍ وقوي فلسفيًا، مع أن هناك نقاط بداية جيدة على الأقل. وبالنسبة للمنزعجين من الأسئلة الوجودية المتعلقة بالمعلومات، يمكننا ببساطة التركيز على الرموز وتعريف المعلومات على أنها أي مجموعة رموز مرتبة بشكل هادف. يفضل علماء الرياضيات والمهندسون التركيز على هذا الجانب من المعلومات والذي يسمى بعلم البناء الجملة (Syntax) وترك اكتشاف معاني المعلومات أو علم المعاني(Semantics)  للآخرين. أنتج كلود إي شانون في مختبرات بيل في الأربعينيات نظرية رياضية مهمة في الاتصال (1948). واستخدم في هذا العمل خبراته في تقنيات التشفير والهاتف للتوصل إلى صياغة رياضية تصف إمكانية تحويل المعلومات النحوية إلى إشارة يتم نقلها بطريقة تخفف من الضوضاء أو الإشارات الخارجية الأخرى التي يمكن فك تشفيرها بعد ذلك بواسطة متلقي الرسالة المطلوب. (Shannon 1948; Shannon and Weaver 1949). توضح المفاهيم التي وصفها شانون (بالإضافة إلى اختراعات إضافية مهمة قام بها آخرون لا يتسع المجال لذكرهم هنا) الطريقة التي تعمل بها تقنية المعلومات، ولكن لا يزال لدينا مسائل عميقة يجب حسمها إذا أردنا تتبع تأثير تقنيات المعلومات بشكل دقيق على القيم الأخلاقية. وقد لاحظ بعض الفلاسفة حقيقة أن تقنيات المعلومات قد أبرزت الفرق بين علم البناء الجملة وعلم المعاني وانتقدوا أيضا بشكل صريح عجز التقنيات على سد الفجوة بين المفهومين. والمعنى هو أنه على الرغم من أن تقنيات المعلومات قد تكون بارعة في بناء الجملة إلا أنها لن تكون قادرة على فهم دلالات أو معاني المعلومات التي عملت عليها.

يمكن الاستشهاد بـ “تجربة الغرفة الصينية” كأحد الأمثلة الشهيرة التي ناقش الفيلسوف جون سيرل (Searle 1980) فيها بأنه حتى لو تم إنشاء آلة قادرة على أخذ قصص مكتوبة باللغة الصينية كمدخل ثم إخراج إجابات منطقية لأسئلة حول تلك القصص، فانه لا يمكن إثبات أن الآلة كانت فعلًا تفهم ما تفعله. وتستند التجربة إلى الادعاء بأنه إذا استبدلت طريقة عمل الآلة بشخص ليست الصينية لغته الأم والذي سيطبق بعدها مجموعة من القواعد بشكل جدي لتحويل مجموعة من مدخلات الرسوم اللفظية الصينية إلى رموز مخرجات، هذا الشخص لن يفهم المدخلات ولن يعرف أيضًا ما يقوله النظام كمخرج، فالأمر كله تلاعب بالرموز لا معنى له بالنسبة له. والخلاصة هي أن هذا النظام الغريب قادر بدون شك على استخدام نحو اللغة والقصة بمهارة لكن لن يستطيع الشخص الموجود بالداخل أن يفهم دلالات القصص أو معانيها (Searle 1980). قم باستبدال الشخص بالإلكترونيات لتجد بأن الأجهزة الإلكترونية لن تفهم الرموز التي تعالجها. هذا الرأي مثير لكنه غير مقبول عالميًا وقد أدى إلى عقود من الجدل والرفض (انظر مدخل تجربة الغرفة الصينية).

لتقنية المعلومات تأثير دائم على الدراسة الفلسفية للمنطق والمعلومات. فالمنطق يُستخدم في هذا المجال كطريقة لفهم المعلومات ويُستخدم علم المعلومات كطريقة لإنشاء أسس المنطق نفسه. (انظر مدخل المنطق والمعلومات).

القضايا التي تمت مناقشتها الان مثيرة للاهتمام لكنها مسائل منفصلة وليس علينا حسمها قبل أن نتمكن التمهيد بنقاش حول تقنية المعلومات والقيم الأخلاقية. فأدوات بناء الكلام البحتة لا تزال قادرة على التأثير على العديد من المسائل الأخلاقية المهمة حتى لو غفلت تمامًا المعنى الدلالي للمعلومات التي تقوم بحوسبتها.

نقطة البدء الثانية هي البحث في الدور الميتافيزيقي الذي يمكن أن تؤديه المعلومات في الفلسفة. لو بدأنا مع القول بأن المعلومات تشكل أو ترتبط ارتباطًا وثيقًا بما يشكل وجودنا ووجود كل شيء من حولنا، فهذا يعني أن المعلومات تؤدي دورًا وجوديًا مهمًا في طريقة عمل الكون. وتبني وجهة النظر هذه يضع المعلومات كمسألة أساسية للفلسفة ويخلق مجالات فلسفة المعلومات وأخلاقيات المعلومات. لن نحصر بحثنا في هذا المدخل في نظرية المعلومات ولكن سننظر عن قرب في تأثير تقنيات المعلومات الأخلاقية على مجتمعاتنا. لن يتم تناول فلسفة المعلومات بالتفصيل هنا لكن يمكن للقارئ المهتم أن يبدأ مع فلوريدي  (2010b, 2011b)كمقدمة. وستتحدد بعض أهم جوانب أخلاقيات المعلومات بتفصيل أكثر في الاسفل.

 

2.التحديات الأخلاقية لتقنية المعلومات

دائمًا ما يكون الانتقال من مجموعة مهيمنة من تقنيات المعلومات إلى أخرى أمرًا مثيرًا للجدل من الناحية الأخلاقية.  عاش سقراط خلال فترة الانتقال الطويلة من إرث شفهي كبير إلى تقنية معلومات جديدة تتكون من تدوين الكلمات والمعلومات وجمع تلك الكتابات في مخطوطات وكتب. ومن المعروف أن سقراط كان نوعًا ما معاديًا للكتابة ولم يدون أي شيء بنفسه كما يدعي العلماء. لكن المفارقة هي أن معرفتنا برأي سقراط في الكتابة كانت عن طريق تلميذه أفلاطون الذي تجاهل معلمه ودونه في حوار يسمى “فايدروس” (أفلاطون). في نهاية هذا الحوار، يناقش سقراط مع صديقه فايدروس “..الشروط التي تجعلها (الكتابة) مستحسنة أو مستقبحة” (section 274b–479c). ويروي سقراط حكاية عن إله مصري اسمه تحوت وهب الكتابة إلى ملك يدعى تحاموس. لم تعجب تحاموس الهدية وقال: “سيكون النسيان مغروس في نفوس البشر إذا تعلموا هذا، وسيتوقفون عن استخدام الذاكرة بسبب اعتمادهم على المكتوب، وسيكون تذكر الأشياء ليس من داخل أنفسهم بل عن طريق علامات خارجية.” (Phaedrus, section 275a)

كان سقراط، والذي كان بارعًا في الاقتباس من القصائد والملاحم ووضعها في محادثاته، يخشى أن الذين يعتمدون على الكتابة لن يتمكنوا أبدًا من فهم هذه الكلمات والعيش وفقًا لها. فبالنسبة لسقراط، هناك شيء غير أخلاقي أو مزيف في الكتابة. يمكن للكتب أن تقدم معلومات لكنها لا تستطيع أن تمنحك الحكمة التي تحتاجها لاستخدام هذه المعلومات أو لفهمها بعمق. وعلى العكس من ذلك، في الإرث الشفهي لا ترجع لمكتبة لأنك ببساطة أنت المكتبة، أنت الصورة الحية للمعلومات التي تعرفها عن ظهر قلب. بالنسبة لسقراط، لن تعطيك قراءة كتاب حكمة مثل ما يعطيك التحدث مع مؤلفه. فالكلمات المكتوبة تتحدث إليك كما لو أنها ذكية لكن لو سألتها عما تذكره، رغبةً منك في الفهم، فستستمر في إخبارك نفس الشيء إلى الأبد (Phaedrus, section 275d).

قد يبدو انتقاده للكتابة مضحكًا للوهلة الأولى لكن الميل لاستخدام الاسترجاع وتسميته ذاكرة يزداد انتشارًا في تقنيات المعلومات الحديثة. لماذا تتعلم أي شيء إذا كانت المعلومات مجرد بحث على الإنترنت؟ لذا لأجل تجنب قلق سقراط، على تقنيات المعلومات أن تفعل أكثر من مجرد توفير الوصول إلى المعلومات وأن تساعد أيضًا في تنمية الحكمة والفهم.

 

2.1.السمة الأساسية لتقنيات المعلومات

أشار ريتشارد ميسون في بداية ثورة تقنية المعلومات إلى أن التغييرات القادمة في تقنية المعلومات، مثل أدوارها في التعليم والتأثير الاقتصادي، ستتطلب إعادة تفكير في العقد الاجتماعي (Mason 1986)، وعبر عن قلقه من أنها ستتعارض مع الخصوصية، الدقة، الملكية، وإمكانية الوصول(PAPA) ولأجل حماية مجتمعنا “…علينا أن ننشئ عقد اجتماعي جديد يضمن لكل شخص الحق في تحقيق إمكاناته البشرية.” (Mason 1986 P 11). لكن ما غاب عن ميسون في ذلك الوقت هو أننا مضطرون لتحديث العقد الاجتماعي بشكل مستمر وذلك بسبب سرعة تغير هذه التقنيات، فتقنيات المعلومات تتغير بسرعة وتشتهر وتختفي بشكل محير مما يصعب حصرها وفهرسة التأثيرات الأخلاقية لكل منها. وحقيقة أن هذه التغيرات سريعة وخطيرة للغاية دفع بالبعض إلى القول بأننا بحاجة إلى دراسة عميقة لأخلاقيات عملية تطوير التقنيات الناشئة (Moor 2008)، وأيضًا إلى القول بأن حتى الطبيعة المتغيرة لتقنية المعلومات تغير من قدرتنا على فهم القيم الأخلاقية اثناء تغيرها. يزعم لورينزو مانياني أن معرفة كيف لهذا التغيير أن يربك قدرتنا على التفكير أخلاقيًا “… أصبح واجبًا في عالمنا التقني” (Magnani 2007، 93)، ويحذر المنظّر القانوني لاري لسيج من سرعة التغيير الخاطفة في تقنية المعلومات لدرجة التخلي عن العملية البطيئة والمتأنية للقانون والسياسات السياسية لتصبح هذه التقنيات في الواقع خارجة عن القانون أو نطاقه. ويعود سبب هذا إلى حقيقة أنه في الوقت الذي يدوّن فيه القانون للحد على سبيل المثال من بعض أشكال انتهاك حقوق النشر التي توفرها تقنية مشاركة ملفات معينة، تصبح هذه التقنيات قديمة وينشغل المستخدمون في شيء آخر يُسهل عليهم انتهاك حقوق النشر (Lessig 1999). ولكن حتى مع سرعة التغيير هذه يبقى الوضع على حالة إمكانية تصنيف تقنيات أو تطبيقات المعلومات جميعًا إلى ثلاثة أنواع مختلفة على الأقل – سنأخذ نظرة على كل منها في الأسفل.

تقوم جميع تقنيات المعلومات بتسجيل (تخزين) ونقل (إيصال) وتنظيم و / أو تركيب المعلومات. على سبيل المثال، يعتبر الكتاب سجل المعلومات، يستخدم الهاتف لإيصال المعلومات، ويقوم نظام ديوي العشري بتنظيم المعلومات. ويمكن للعديد من تقنيات المعلومات إنجاز أكثر من وظيفة من الوظائف المذكورة للتو، ويمكن للكمبيوتر، بشكل خاص، إنجازها جميعًا بما أنه يُوصف بأنه آلة عالمية (انظر مدخل القابلية الحسابية والتعقيد)، لذلك يمكن برمجتها لتقليد أي شكل من أشكال تقنية المعلومات. سننظر في جزء 2 في بعض الأمثلة المحددة للتقنيات والتطبيقات من كل نوع من الأنواع الثلاثة لتقنية المعلومات المذكورة مسبقًا ونتتبع التحديات الأخلاقية التي تنشأ من استخدام وتصميم هذه التقنيات المعينة. سنحتاج، بالإضافة إلى ما سبق، إلى الحديث عن الاستخدام المتزايد لبيئات المعلومات، مثل الألعاب الضخمة المتعددة اللاعبين وهي بيئات مكونة بالكامل من معلومات حيث يمكن للأشخاص تطوير حياة بديلة فيها مليئة بأشكال مختلفة من الأنشطة الاجتماعية. (انظر جزء 3.3). أخيرًا، بالإضافة إلى كيفية تأثير تقنية المعلومات على حدسنا الأخلاقي، سننظر أيضًا في كيف ممكن أن تغير من طبيعة الاستدلال الأخلاقي. في جزء 4، سننظر إلى المعلومات كتقنية أخلاقية وكيف يمكننا برمجة التطبيقات والروبوتات للتفاعل معنا بشكل مقبول أخلاقيًا.

 

2.1.1.القيم الأخلاقية في تسجيل المعلومات

يعتبر التحكم في المعلومات مصدر قوة ويمكن أن يكون أعلى شكل للقوة السياسية في اقتصاد المعلومات، كما نرى اليوم. فنحن نعيش في عالم غني بالبيانات تطورت فيه بسرعة تقنية إنتاج، تسجيل، وتخزين كميات هائلة من هذه البيانات. والأمر الأخلاقي الأساسي هنا هو أنه عندما نقوم بجمع و /أو تخزين و/ أو الوصول إلى المعلومات، فمن الضروري أن يتم ذلك بشكل صحيح حتى يرى بعقلانية على أنه عادل وفي مصلحة جميع الأطراف المعنية. وكما ذكرنا من قبل، ينتج كل منا قدرًا هائلًا من المعلومات كل يوم يمكن تسجيله وتخزينه كبيانات مفيدة للوصول إليه لاحقًا عند الحاجة. لكن تبدأ المشكلة الأخلاقية عندما يتم جمع معلوماتنا وتخزينها واستخدامها من قبل أطراف ثالثة دون علمنا أو عندما تتم بموافقتنا الضمنية فقط، والمؤسسات الاجتماعية التي مارست هذه السلطة تقليديًا هي مثل المنظمات الدينية، الجامعات، المكتبات، مسؤولي الرعاية الصحية، الوكالات الحكومية، والبنوك والشركات. وتتمتع هذه الكيانات بإمكانية الوصول إلى المعلومات المخزنة التي تمنحها قدرًا معينًا من السلطة على عملائها ودوائرها، ويتمتع كل مواطن اليوم بإمكانية الوصول إلى المزيد والمزيد من تلك المعلومات المخزنة دون الحاجة إلى استخدام السبل التقليدية لتلك المعلومات مما يجعله يتمتع بقدر خاص وكبير من السلطة الاجتماعية (see Lessig 1999).

 من القيم العظيمة لتقنية المعلومات الحديثة هي أنها جعلت تسجيل المعلومات سهلًا وشبه تلقائي. فاليوم يقوم الكثير من الأشخاص بشكل متزايد بإدخال البيانات الحيوية مثل ضغط الدم والسعرات الحرارية وأنماط التمارين وما إلى ذلك في تطبيقات مصممة لمساعدتهم على تحقيق نمط حياة صحي، ويمكن أن يصبح هذا النوع من جمع البيانات مؤتمت بشكل شبه كامل في المستقبل القريب، من خلال استخدام الساعات الذكية أو التقنيات مثل “Fitbit”، أو التي يتم تجميعها عن طريق مستخدم الهاتف الذكي، مثل التطبيقات التي تستخدم GPS لتتبع طول ومدة المشي أو الجري. لكن ما المدة التي يستغرقها الهاتف الذكي في جمع التدفق المستمر لبيانات ضغط دمك على مدار اليوم والذي ربما يتم تمييزه بعلامات تحديد الموقع الجغرافي لقراءات عالية أو منخفضة بشكل مفصل؟ قد تكون هذه من ناحية بيانات مهمة جدًا بإمكانها أن تؤدي إلى خيارات صحية في أسلوب الحياة، ولكن يمكن أيضًا أن تكون انتهاكًا خطيرًا للخصوصية إذا وصلت المعلومات لأيدي خاطئة، وهذا يمكن تحقيقه بسهولة بما أن الأطراف الثالثة لديها إمكانية الوصول إلى المعلومات التي تم جمعها على الهواتف الذكية والتطبيقات على الإنترنت. في الجزء التالي (2.1.2) سنلقي نظرة على بعض النظريات المتعلقة بأفضل الطرق في إيصال هذه المعلومات المسجلة بشكل أخلاقي للحفاظ على الخصوصية، ولكن علينا هنا الحديث عن انتهاك خفي أكبر للخصوصية وهو جمع وتسجيل بيانات المستخدم دون علمه أو موافقته. فعند البحث على الإنترنت يسجل المتصفح جميع أنواع البيانات المتعلقة بزيارتك إلى مواقع مختلفة والتي يمكنها، على سبيل المثال، تحميل صفحات الويب بشكل أسرع في زيارتك التالية لها، وحتى المواقع نفسها تستخدم وسائل مختلفة لتسجيل المعلومات عندما يتصل جهاز الكمبيوتر الخاص بك بها، وقد تترك أنت بعض من المعلومات على جهاز الكمبيوتر الخاص بك والتي يمكن للموقع استخدامها في المرة التالية التي تزوره فيها. بعض المواقع قادرة على رصد المواقع الأخرى التي قمت بزيارتها أو الصفحات التي تقضي معظم الوقت عليها على الشبكة. لو كان هناك شخص ما يلاحقك في مكتبة ويسجل هذا النوع من المعلومات لوجدته غير مريح أو عدائي، لكن هذا النوع من السلوك على الإنترنت يحدث خلف الكواليس ولا يلاحظه المستخدم العادي.

يرى بعض المتخصصين أن تقنية المعلومات قضت تقريبًا على المساحة الشخصية وأن الأمر كان على هذا النحو منذ عقود. في عام 1999، صرح سكوت ماكنيلي من شركة صن مايكروسيستمز 1999: “ليس لديك أي خصوصية على أي حال. انس هذا الأمر” (Sprenger, 1999). لاحظت هيلين نيسنباوم أنه بينما ثبطت الحواجز المادية والتكلفة في السابق من عزيمة الجميع عدا المواظبين من اكتشاف المعلومات، فقد جعلت التقنية من هذا شيء متاح عن طريق نقرة زر واحدة أو مقابل بضعة دولارات (Nissenbaum 1997)، ومنذ كتابتها عن هذا، أصبح جمع البيانات الشخصية أكثر آلية وأرخص. ومن الواضح بأن نظريات الخصوصية السابقة التي تناولت حرمة الحدود المادية لم تعد سارية لكن علينا، كما ترى نيسنباوم، أن نحمي الخصوصية من أجل الاستقلالية الشخصية والعلاقة الحميمة (Nissenbaum 1997).

المسألة الأخيرة في هذا الجزء هي أن تقنيات المعلومات تقوم الآن بتخزين بيانات المستخدم في “السحابة” مما يعني أن البيانات مخزنة على جهاز بعيد عن المستخدم ولا يمتلكه أو يديره، وستكون البيانات متاحة بعد ذلك في أي مكان يتواجد فيه المستخدم وعلى أي جهاز يستخدمه. وتجعل سهولة الوصول هذه أيضًا العلاقة بين الشخص وبين البيانات الخاصة به أكثر هشاشة بسبب الشك في الموقع الفعلي لتلك البيانات. نظرًا لأهمية حماية البيانات الشخصية، فإن الأطراف الثالثة التي تقدم خدمات “سحابية” تحتاج إلى فهم مسؤولية الثقة التي يضعها المستخدم فيها. فإذا قمت بتحميل جميع صور حياتك في موقع مثل Flickr وكان من المفترض أن يفقدها أو يحذفها بطريقة ما، فسيعتبر هذا خطأ مأساويًا قد لا يكون من الممكن إصلاحه.

 

2.1.2.القيم الأخلاقية في إيصال  المعلومات والوصول إليها

أجبرتنا تقنية المعلومات على إعادة النظر في المفاهيم السابقة للخصوصية والتي كانت تستند على تقنيات مثل الرسائل، المذكرات، الكتب، النشرات، الصحف، الخ. وقد تحولت القيم الأخلاقية المرتبطة بهذه التقنيات المذكورة إلى الطريقة السهلة وهي إمكانية مشاركة المعلومات وتعديلها باستخدام تقنيات المعلومات الرقمية، وتطلّب هذا تطوير سريع لنظريات أخلاقية جديدة تعترف بفوائد ومخاطر إيصال جميع أنواع المعلومات باستخدام تقنيات المعلومات الحديثة. القيم الأخلاقية الأساسية التي تتعرض لضغوط من هذه التغييرات هي: الخصوصية، السرية، الملكية، الثقة، وصحة المعلومات التي يتم إيصالها بهذه الطرق الجديدة.

من يحق له أن يقرر إذا تم إيصال بعض المعلومات عن المستخدم أم لا؟ من يُسمح له ببيع سجلاتك الطبية، سجلاتك المالية، بريدك الإلكتروني، وسجل متصفحك، الخ؟ إذا لم يكن لديك سلطة على هذه العمليات فكيف يمكنك المطالبة بحقك الأخلاقي في الخصوصية؟

على سبيل المثال، كان الان ويستن يرى في بداية العقود الأولى من تقدم تقنيات المعلومات الرقمية التي كانت تتحكم في الوصول إلى المعلومات الشخصية للفرد بأنها مفتاح الحفاظ على الخصوصية (Westin, 1967). ويترتب على ذلك أنه إذا كنا نهتم بالخصوصية فعلينا منح الأشخاص السلطة للوصول إلى المعلومات الشخصية، لكن معظم الكيانات التجارية تقاوم هذه الفكرة لسبب بسيط وهو أن معلومات المستخدمين أصبحت سلعة أساسية في العالم الرقمي مما يزيد من الثروات الهائلة لشركات مثل Google أو Facebook. نحن فعلًا نستفيد بشكل كبير من الخدمات التي تقدمها شركات البحث على الإنترنت مثل Google والشبكات الاجتماعية مثل Facebook. وقد يُقال بأنه تبادل منصف لنا فعلًا نظرًا لأنه يوفر نتائج بحث وتطبيقات أخرى مجانية في مقابل تكلفة إنشاء تلك الخدمات القيّمة من خلال جمع بيانات سلوك المستخدم لتحقيق دخل منه بطرق مختلفة مربحة. وتعتبر الإعلانات الموجهة بالنسبة للشركات مكون رئيسي لنموذج الربح حيث تستخدَم المعلومات التي يتم جمعها عن المستخدمين في تحديد أكثر الإعلانات تأثيرًا على كل مستخدم، وذلك وفقًا لسجل بحثه وسلوكيات أخرى له على الإنترنت. بمجرد استخدام التطبيقات المجانية المقدمة يوافق كل مستخدم ضمنيًا على التخلي عن قدر من الخصوصية يختلف باختلاف التطبيقات التي يستخدمها، لكن حتى لو اتفقنا على أن هناك بعض الخدمات التي يستفيد منها المستخدمون في هذا التبادل، لا يزال هناك الكثير من المشاكل الأخلاقية المحتملة مع هذا الترتيب. لو تفحصنا الرأي الذي أثاره ويستن مسبقًا بأن الخصوصية تعادل التحكم في المعلومات (ibid.)، لوجدنا بأننا نتنازل عن خصوصيتنا بالتدريج وذلك لأننا لا نملك أي سلطة تقريبًا أو حتى فهم كبير للكميات الهائلة من المعلومات الرقمية التي يتم جمعها عنا.

يرى هيرمان تافاني وجيمس مور (2004) في رأي مخالف أن منح المستخدم مزيدًا من السلطة على معلوماته في بعض الحالات قد يؤدي في الواقع إلى خسارة أكبر للخصوصية. وحجتهم الأساسية هي أنه لا يمكن لأحد أن يتحكم فعليًا في جميع المعلومات التي يوفرها يوميًا من خلال أنشطته، لأن التركيز على الجزء الذي يمكننا التحكم فيه فقط يجعلنا نغفل عن الكميات الهائلة من البيانات التي لا يمكننا التحكم فيها (Tavani and Moor، 2004). يرى تافاني ومور بضرورة الاعتراف بالخصوصية من قبل الأطراف الثالثة التي تتحكم في معلوماتك. فقط إذا كان لدى تلك الأطراف التزام بحماية خصوصية المستخدم، سنحصل فعليًا على الخصوصية المستحقة. ولتحقيق هذه الغاية يقترحان بأن نفكر في الوصول المقيد إلى المعلومات بدلًا من الرقابة الشخصية الصارمة على المعلومات. (ibid)

يعتبر أمن المعلومات قيمة أخلاقية أخرى مهمة لها تأثير على إيصال والوصول إلى معلومات المستخدم. حين نمنح أطراف ثالثة سلطة على معلوماتنا مقابل الخدمات التي يقدمونها، فهذا يعني أيضًا أن هذه الكيانات مسؤولة عن تقييد الوصول إلى المعلومات من قبل الآخرين الذين قد يستخدمونها لإلحاق الأذى بنا (See Epstein 2007; Magnani 2007; Tavani 2007). فمع وجود معلومات كافية، يمكن سرقة هوية الشخص بالكامل واستخدامها لتسهيل عمليات الاحتيال والسرقة. وهذا النوع من الجرائم ازداد بسرعة منذ ظهور تقنيات المعلومات الرقمية. ويمكن أن تدمر حياة ضحايا هذه الجرائم وهم يحاولون إعادة استخدام أشياء مثل تصنيفهم الائتماني والحسابات المصرفية. وقد أدى هذا إلى تصميم أنظمة كمبيوتر يصعب الوصول إليها، ونمو صناعة جديدة مخصصة لتأمين أنظمة الكمبيوتر. لكن حتى مع هذه الجهود لازال الأثر الاقتصادي والاجتماعي للجرائم الإلكترونية ينمو بمعدل مذهل. في فبراير 2018، أصدرت شركة الأمن السيبراني McAfee تقريرًا قدّر التكلفة العالمية للجرائم الإلكترونية من 445 مليار دولار في عام 2014 إلى 608 مليار دولار أو 0.8 من الناتج المحلي الإجمالي العالمي في 2018، وهذا دون احتساب التكاليف الخفية للصراعات المتزايدة والخسارة الإنتاجية في مكافحة الجريمة الإلكترونية (McAfee 2018).

 

تكمن صعوبة تحقيق الأمن الرقمي الكامل في أن القيمة الأخلاقية للأمن يمكن أن تتعارض مع القيم الأخلاقية للمشاركة والانفتاح التي كانت معيارًا للعديد من مؤسسي تقنية المعلومات الأوائل. يصف ستيفن ليفي (1984) في كتابه Hackers: Heroes of the Computer Revolution نوعًا من “أخلاقيات القرصنة” والتي تتضمن فكرة أن على أجهزة الكمبيوتر أن تكون متاحة مجانًا و بدون مركزية من أجل تسهيل “إصلاح العالم” ولمزيد من العدالة الاجتماعية (Levy 1984 ؛ Markoff 2005). يبدو أن هناك عدم انسجام قوي في تقنية المعلومات نشأ في القيم التنافسية للأمن والانفتاح والتي تدخل بشكل مباشر في تصميم هذه التقنيات، وكل هذا مبني على القيم الأخلاقية التنافسية التي يتبناها مصممي التقنيات.

ناقش الفلاسفة تعارض هذه القيم. في حين أن العديد من القراصنة (hackers) الذين قابلهم ليفي يرون بأن القرصنة (Hacking) ليست بتلك الخطورة لأنها في الغالب مجرد اكتساب معرفة كانت مخفية في كيفية عمل أنظمة تقنية المعلومات. إلا أن يوجين سبفورد يعترض بأنه لا يوجد اختراق للكمبيوتر غير ضار تمامًا وأن الضرر يمنع احتمالية القرصنة الأخلاقية إلا في الحالات القصوى (Spafford 2007). ويوافق كينيث هيما إلى حد كبير على أن أنشطة القرصنة غير أخلاقية لكن قد يكون للقرصنة ذات الدوافع السياسية أوالهاكتفيزم “Hacktivism” بعض التبرير الأخلاقي، ومع هذا هو متردد في إعطاء تأييده الكامل لهذه الممارسة بسبب الطبيعة المجهولة للخطاب الذي تنطوي عليه احتجاجات الناشطين (Himma 2007b). يتفق مارك مينيون وآبي جودروم على أن “الهاكتفيزم” يمكن أن تكون حالة خاصة من القرصنة الأخلاقية لكن عليها أن تكون وفقًا للمعايير الأخلاقية التي حددتها أعمال العصيان المدني التي ميزت القرن العشرين أوانها ستتعرض لخطر تصنيفها كإرهاب الكتروني (Manion and Goodrum 2007).

هناك انقسام قيمي مشابه يحدث في مجالات أخرى أيضًا لا سيما في مجال حقوق الملكية الفكرية (انظر مدخل الملكية الفكرية) والمواد الإباحية والرقابة (انظر مدخل المواد الإباحية والرقابة). ما تضيفه تقنية المعلومات إلى هذه النقاشات الأخلاقية المستمرة هو تقريبًا الوصول السهل إلى المعلومات التي قد يرغب الآخرون في التحكم فيها مثل الملكية الفكرية، المعلومات الخطرة، والمواد الإباحية (Floridi 1999)، فضلًا عن توفير إخفاء الهوية التقني لكل من المستخدم والأشخاص الذين يقدمون الوصول إلى المعلومات المعنية (Nissenbaum 1999; Sullins 2010 ). على سبيل المثال، مع أن حالات التنمر والمطاردة تحدث باستمرار، الا أن التنمر والملاحقة المجهولة والبعيدة على الإنترنت يسهل كثيرًا من هذه السلوكيات ويقلل من احتمالية القبض على الجاني. لذا بما أن تقنيات المعلومات قادرة على أن تجعل هذه السلوكيات غير الأخلاقية ممكنة، يمكن القول بأن تصميم الفضاء الحاسوبي نفسه يدعم ضمنيًا السلوك غير الأخلاقي (Adams 2002; Grodzinsky and Tavani 2002). بما أن إمكانيات تصميم تقنية المعلومات نفسها لها تأثير على حياة مستخدميها فإن الالتزامات الأخلاقية لمصممي هذه التقنيات ستوجه مسار المجتمع وسيحدد التقنيون بعد ذلك التزاماتنا بقيم أخلاقية معينة. (Brey 2010; Bynum 2000; Ess 2009; Johnson 1985; Magnani 2007; Moor 1985; Spinello 2001; Sullins 2010).

على افتراض أنه لدينا ما يبرر توفيرنا لبعض المعلومات التي قد تكون تحت تحكمنا، يجب أن يكون هناك ضمان أن هذه المعلومات صادقة ودقيقة ومفيدة. ستظهر تجربة بسيطة أن تقنيات المعلومات قد تواجه بعض المشاكل العميقة في هذا الصدد. عندما تقوم بتحميل عدد من محركات البحث المختلفة ثم تكتب نفس مصطلحات البحث في كل منها، ستعطي كل منها نتائج مختلفة وستختلف بعض عمليات البحث هذه بشكل كبير عن بعضها البعض. ويوضح هذا أن كل خدمة من هذه الخدمات تمتلك خوارزمية مختلفة تستخدمها لتزويد المستخدم بنتائج بحثهم. ويترتب على ذلك أن كل عمليات البحث ليست متساوية وستعتمد مصداقية، دقة، وفائدة النتائج بشكل كبير على موفر البحث الذي تستخدمه وكمية معلومات المستخدم التي تتم مشاركتها مع هذا الموفر. وتتم تصفية جميع عمليات البحث من خلال خوارزميات مختلفة لضمان إدراج المعلومات التي يعتقد مزود البحث أنها الأهم بالنسبة للمستخدم، وبما أن هذه الخوارزميات لا يتم نشرها في العلن وتحمل أسرارًا تجارية مشتركة، فإن لدى المستخدمين ثقة كبيرة في عملية التصفية هذه. هناك امل أن قرارات التصفية هذه مبررة أخلاقيًا ولكن يضل من الصعب معرفة ذلك. خذ “خطف النقرات” (Clickjacking) كمثال بسيط على هذا، فلو قيل لنا أن الرابط سينقلنا إلى موقع على الانترنت لكن عند النقر عليه ينقلنا إلى مكان آخر، قد يشعر المستخدم أن هذا خرقًا للثقة. ويسمى هذا عادةً “(خطف النقرات) ” ويمكن للبرامج الضارة النقر فوق متصفح عن طريق نقل المستخدم إلى موقع آخر غير المرغوب فيه وسيكون عادةً مليئًا بالروابط الأخرى التي تجلب نفعًا لخاطف النقرات (clickjacker) بسبب ما يجلبه من حركة لهم(Hansen and Grossman ، 2008).و مرة أخرى يمكن لإخفاء الهوية وسهولة الاستخدام التي توفرها تقنية المعلومات أن تسهل الممارسات الخادعة مثل خطف النقرات. وينبغي أن يؤدي هذا كما يقترح بيتيت (2009) إلى إعادة تقييم الدور الذي تلعبه القيم الأخلاقية مثل الثقة في عالم تقنية المعلومات. ساهم إخفاء الهوية والقدرة على إخفاء كاتبي التقارير الإخبارية على الإنترنت في زيادة “الأخبار المزيفة” أو الدعايات “Propaganda” بأشكال مختلفة والتي تتظاهر بأنها أخبار مشروعة. وهذه مشكلة كبيرة سيتم مناقشتها في الجزء (2.2.3) في الأسفل.

علينا في هذا الجزء الأخير أن نتحدث عن تأثير الوصول إلى المعلومات على العدالة الاجتماعية. تم تطوير تقنية المعلومات إلى حد كبير في المجتمعات الصناعية الغربية خلال القرن العشرين، ولكن حتى اليوم لم تنتشر فوائد هذه التقنية بشكل متساوي في العالم وفي الديموغرافيا الاقتصادية والاجتماعية. فالوصول إلى المعلومات في بعض المجتمعات والطبقات الاجتماعية قليل او غير متاح مقارنةً بالذين يعيشون في الدول الغنية والمتقدمة، وبالنسبة للبعض، من الذين لديهم بعض الوصول، فأن عليهم رقابة شديدة من حكوماتهم. أصبح هذا الوضع يسمى “الفجوة الرقمية”، وعلى الرغم من الجهود المبذولة لمعالجة هذه الفجوة، إلا أنها ممكن أن تكون في ازدياد. وتجدر الإشارة إلى أنه مع انخفاض تكلفة الهواتف الذكية، اتاحت هذه التقنيات بعض الوصول إلى الإنترنت العالمي للمجتمعات التي كانت محرومة منه من قبل (Poushter 2016). في حين أن الكثير من هذه الفجوة يحركها الاقتصاد (Warschauer 2003) ، الا أن تشارلز اس لاحظ أن هناك أيضًا مشكلة بسبب نوع جديد من الاستعمار والتمركز العرقي الممكَّن عبر الإنترنت, والذي يمكن أن يحد من رغبة الاشخاص خارج الغرب الصناعي في المشاركة في “جلوبال متروبوليس” الجديد (Ess 2009). يلاحظ جون ويكيرت أيضًا أن الاختلافات الثقافية في تبادل الضرر تلعب دورًا في تصميم تقنيات معلومات مبنية على المساواة (Weckert 2007). ويرى آخرون بأن المسائل الأخلاقية الأساسية مثل الخصوصية لها تقييم مختلف في الثقافات الآسيوية (Hongladarom 2008; Lü 2005)

 

2.1.3.القيم الأخلاقية في تنظيم وتركيب المعلومات

بالإضافة إلى تخزين المعلومات وإيصالها تقوم العديد من تقنيات المعلومات بتنظيم المعلومات اليًا وايضًا تركيبها او كتابتها اليًا أو العمل وفقًا لمعلومات جديدة. طور نوربرت وينر لأول مرة نظرية في تركيب المعلومات اليًا أطلق عليها سيبرنطيقيا (Cybernetics) (Wiener 1961 [1948]). واكتشف أنه بالإمكان تصميم آلة تجمع معلومات عن العالم وتستخلص استنتاجات منطقية حول تلك المعلومات التي قد تتضمن إجراءات معينة والتي يمكن للآلة تنفيذها بعد ذلك دون أي تدخل مباشر من عنصر بشري. لكن سرعان ما رأى وينر أنه إذا تحققت رؤية السيبرنطيقيا، فستكون هناك مخاوف أخلاقية هائلة تثيرها هذه الآلات وقد أوجز بعضها في كتابه: The Human Use of Human Beings (Wiener 1950). رأى وينر بأنه على الرغم من أن هذا النوع من التقنية يمكن أن يكون له تأثيرات أخلاقية جذرية، إلا أنه لا يزال من الممكن أن نعمل وفق التوقعات ونوجه التقنية بطرق من شأنها أن تزيد إمكانيات التفكير الأخلاقي لكل من البشر والآلات (Bynum 2008).

تتخذ الآلات قرارات لها تأثيرات أخلاقية، ويروي ويندل والاك وكولين الين قصة عن كاتب، في كتابهما ” Moral Machines ” (2008). ذهب الكاتب في إجازة وعند وصوله لوجهته في الخارج توقفت بطاقته الائتمانية عن العمل وفي حيرة من أمره، اتصل بالبنك وعلم بعدها أن برنامجًا آليًا لمكافحة السرقة هو من قرر أن هناك احتمالًا كبيرًا بأن تكون العمليات التي كان يحاول القيام بها كانت من شخص قام بسرقة بطاقته ومن أجل حمايته رفض الجهاز معاملات بطاقته الائتمانية. لدينا هنا موقف تقرر تقنية المعلومات فيه أن هناك احتمالية حدوث نشاط اجرامي نتج عنه قدر ضئيل من الضرر للشخص الذي كانت تحاول مساعدته. وعلى نحو متزايد، تتخذ الآلات قرارات مالية مهمة لها تأثير على حياة الناس دون رقابة تذكر من وكلاء بشريين. فسواء اردت بطاقة ائتمان أو قرض رهن عقاري او لا، السعر الذي سيتعين عليك دفعه مقابل التأمين وغيره، ستحدده غالبًا الالة. على سبيل المثال، إذا تقدمت بطلب للحصول على بطاقة ائتمان، سيقوم الجهاز بالبحث عن بيانات معينة مثل راتبك، سجلك الائتماني، الحالة الاقتصادية للمنطقة التي تقيم فيها، وما إلى ذلك، ثم يحسب احتمالية تخلفك عن سداد بطاقتك الائتمانية. هذه الاحتمالية إما أن تتجاوز مرحلة القبول او لا وستحدد ما إذا كنت ستحصل على البطاقة أم لا. يمكن للآلة عادةً أن تتعلم كيف تصدر أحكامًا أفضل بالنظر إلى نتائج القرارات السابقة التي اتخذتها. ويعتمد هذا النوع من التعلم الآلي والتنبؤ على المنطق المعقد والرياضيات (Russell and Norvig 2010)، وقد ينتج عن هذا التعقيد أمثلة مضحكة قليلًا لتنبؤات خاطئة كما في القصة السابقة أو قد تكون خطيرة. على سبيل المثال، قد يفسر البرنامج البيانات المتعلقة بهوية اصدقاء ومعارف شخص ومشترياته الأخيرة وغيرها من البيانات الاجتماعية المتاحة بسهولة ويصنفها بشكل خاطئ على أن هذا الشخص يمكن أن يكون إرهابي مما سيؤثر على حياة الشخص بشكل سيء وقوي. (Sullins 2010). هذا كله يعتمد على تصميم خوارزمية التعلم والتنبؤ والتي تكون عادةً سريه، مما يصعب تبرير صحة التنبؤ.

 

2.2.المفارقة الأخلاقية لتقنية المعلومات

الكثير من القضايا التي تمت مناقشتها سابقًا هي نتيجة التناقض الأخلاقي لتقنيات المعلومات، فالعديد من المستخدمين يرغبون في الوصول إلى المعلومات بسرعة وسهولة اثناء استخدامها وأن تكون بأقل تكلفة ممكنة، والأفضل أن تكون مجانية. لكنهم يريدون أيضًا أن تكون المعلومات المهمة والحساسة آمنة وثابته ويمكن الوثوق فيه. يؤدي رفع قيمة التكلفة السريعة والمنخفضة إلى الحد من قدرتنا على توفير معلومات آمنة وعالية الجودة والعكس صحيح أيضًا. وبالتالي، يواجه مصممو تقنيات المعلومات باستمرار تقديم تنازلات غير مريحة. لخص رائد الشبكة الأول ستيوارت براند هذا جيدًا في اقتباسه الشهير:

في خريف 1984 وفي أول مؤتمر للقراصنة، قلت في جلسة مناقشة: “من ناحية، تريد من المعلومات أن تكون باهظة الثمن لأنها ذات قيمة، فالمعلومات الصحيحة في المكان المناسب قد تغير حياتك. ومن ناحية أخرى، تريد من المعلومات أن تكون مجانية لأن تكلفة إخراجها تتناقص وتنخفض طوال الوقت. إذا لديك هنا أمران يتعارضان مع بعضهما البعض” (Clarke 2000—see Other Internet Resources).

نظرًا لاستحالة التوفيق بين هذه القيم الأخلاقية المتنافسة بشكل أساسي، فمن المرجح أن يظل هذا أساس النقاشات الأخلاقية حول استخدام وتصميم تقنيات المعلومات إلى المستقبل القريب.

 

3.تحديات أخلاقية محددة على المستوى الثقافي

كان التركيز في الجزء السابق على الآثار الأخلاقية لتقنيات المعلومات على المستخدم. في هذا الجزء، سيكون التركيز على كيف تشكل هذه التقنيات المشهد الأخلاقي على المستوى المجتمعي. في مطلع القرن العشرين، بدأ مصطلح “web 2.0” في الظهور وكان يشير إلى الطريقة الجديدة التي تُستخدم بها شبكة الويب العالمية كوسيلة لمشاركة المعلومات ولتغيير عقلية مصممي الويب أيضًا لأجل احتواء توافق تشغيلي أكثر وأيضًا التجارب التي تركز على المستخدم في مواقعهم في الشبكة. وقد أصبح هذا المصطلح مرتبطًا أيضًا بـ “وسائل التواصل الاجتماعية” و “خدمة الشبكات الاجتماعية”. في حين كان التصميم الأصلي لشبكة الويب العالمية عام1989 لمنشئها تيم بيرنرز لي يتضمن فكرة مقابلة الآخرين والتعاون معهم عبر الإنترنت، استغل المستخدمون أخيرًا هذه الامكانيات بالكامل بحلول عام 2004 في أول مؤتمر عقدته O’Reilly Media لـ Web 2.0 (O’Reilly 2007 [2005]). هذا التغيير يعني أن أعدادًا متزايدة من الناس اصبحت تقضي معظم أوقاتها على الإنترنت مع مستخدمين آخرين لتجربة أسلوب حياة جديدً وغير مسبوق. وأصبحت خدمة الشبكات الاجتماعية جزءًا مهمًا من حياة العديد من الناس حول العالم. فالكثير من الأشخاص يتواجدون على مواقع مثل Facebook ويتفاعلون مع الأصدقاء القدامى والجدد، الحقيقيين والافتراضيين. يغمر الإنترنت الناس بتجارب يتفاعلون فيها مع الآخرين في عوالم افتراضية تم إنشاء بيئات كاملة فيها من المعلومات. وبدأت تظهر الان على الساحة تقنيات ستسمح لنا بدمج الحقيقي مع الافتراضي. يسهل هذا الشكل الجديد من “الواقع المعزز” (Augmented Reality) حقيقة أن العديد من الأشخاص يحملون الآن هواتف ذكية مزودة بنظام تحديد المواقع (GPS) وأجهزة كمبيوتر محمولة أخرى، يمكنهم من خلالها تشغيل التطبيقات التي تتيح لهم التفاعل مع محيطهم وأجهزة الكمبيوتر الخاصة بهم في نفس الوقت، فبالنظر إلى شيء من خلال الكاميرا في أجهزتهم يستدعي “التطبيق” معلومات حول هذا الكيان ويعرضه فوق ذلك الشيء. لكل من هذه التقنيات مجموعتها الخاصة من التحديات الأخلاقية الجديدة والتي سيتم مناقشة بعض منها في الأسفل.

 

3.1.وسائل التواصل الاجتماعي والشبكات

الشبكات الاجتماعية مصطلح يطلق على المواقع والتطبيقات التي تسهل التفاعلات الاجتماعية على الإنترنت والتي تركز عادةً على مشاركة المعلومات مع مستخدمين آخرين يشار إليهم باسم “الأصدقاء”. أشهر هذه المواقع اليوم هي Facebook ولكن هناك العديد من المواقع الأخرى مثل Instagram، Twitter، وSnapchat وهذا على سبيل المثال لا الحصر. هناك عدد من القيم الأخلاقية التي تشكك في هذه المواقع. لشانون فالور رأي (2011 ، 2016) في  كيفية تغير مواقع مثل Facebook من مفهومنا عن الصداقة أو حتى معارضته. وتحليلها مبني على نظرية الصداقة الأرسطي (انظر مدخل أخلاقيات أرسطو). فـ أرسطو كان يرى أن البشر يحققون حياة طيبة وحقيقية من خلال الصداقات الفاضلة. ولاحظت فالور أن الثلاثة الأولى من الأربعة أبعاد الرئيسية لـ”الصداقة الفاضلة ” لأرسطو، وهي: المعاملة بالمثل، التعاطف، معرفة الذات، والحياة المشتركة، موجودة في وسائل التواصل الاجتماعي في الإنترنت بطرق يمكن أن تعزز الصداقة في بعض الأحيان (Vallor 2011, 2016). لكن مع ذلك، ترى بأن وسائل التواصل الاجتماعي لم تصل لمستوى تسهيل مهمة ما يسميه أرسطو “الحياة المشتركة”. وهذا يعني أن وسائل التواصل الاجتماعي يمكن أن تمنحنا أنشطة مشتركة ولكن لن تمنحنا الصداقة الحميمة التي يمكن أن تقدمها لنا الحياة اليومية المشتركة. (هنا نقاش موسع عن الصداقة الأرسطية) وبالتالي، لا تستطيع مواقع التواصل أن تدعم بشكل كامل المفهوم الأرسطي عن الصداقة الكاملة والفاضلة بحد ذاتها (Vallor 2011). لدى فالور أيضًا تحليل مشابه للفضائل الأرسطية الأخرى مثل الصبر، الصدق، التعاطف، ومشكلة تطبيقها في وسائل التواصل الاجتماعي (Vallor 2010). وواصلت فالور القول بأن كلًا من مستخدمي ومصممي تقنيات المعلومات بحاجة إلى تطوير فضيلة جديدة تسميها “Techno-Moral Wisdom” (حكمة أخلاقية-تقنيه) يمكنها أن تساعدنا في تعزيز مجتمعات وصداقات أفضل على الإنترنت. (Vallor, 2016 ).

يميل جوني هارتز سوريكر (2012) إلى الفهم الدقيق للصداقة عبر الإنترنت بدلًا من التسرع في الحكم المعياري على فضائل الأصدقاء الافتراضيين.

بسبب كثرة مشاكل الخصوصية في استخدام وسائل التواصل الاجتماعي، يوصي جيمس باريش مثل ميسون(1986) بأربع سياسات يجب على مستخدمي وسائل التواصل الاجتماعي اتباعها لضمان وجود التزام أخلاقي مناسب تجاه خصوصية الآخرين:

  • ليس عليك عند مشاركة المعلومات على SNS (مواقع الشبكات الاجتماعية) مراعاة خصوصية معلوماتك الشخصية فقط، بل أيضًا خصوصية معلومات الآخرين الذين قد ترتبط معلوماتهم بمعلوماتك.

  • يعتبر الشخص الذي يرغب في مشاركة معلومات على SNS مسؤولا عن دقة المعلومات قبل مشاركتها.

  • على مستخدمي خدمات الشبكات الاجتماعية أن لا يضعوا معلومات عن أنفسهم يمكن أن يتراجعوا عنها في وقت ما لاحقًا. أيضًا على مستخدمي مواقع التواصل الاجتماعي أن لا يضعوا معلومات نشرها شخص آخر ما لم يتم منحهم موافقة من هذا الشخص. وفي كلتا الحالتين، بمجرد نشر المعلومات قد يكون من المستحيل التراجع.

  • مستخدم SNS مسؤول عن تحديد مصداقية الشخص أو البرنامج قبل السماح لهذا الشخص أو البرنامج بالوصول إلى المعلومات المنشورة. ( Parrish 2010)

لا تُصمم هذه الأنظمة عادةً لانتهاك خصوصية الشخص بشكل صريح لكن بما أن هذه الخدمات عادةً مجانية فهناك دافع اقتصادي قوي لمقدمي الخدمة لاستخدام بعض المعلومات على الأقل حول أنشطة المستخدم الخاصة به على الموقع من أجل بيع هذه المعلومات إلى المعلنين لأجل التسويق الموجه. ويمكن إجراء هذا التسويق مع الموفر الذي يبيع الوصول إلى بيانات المستخدمين المخفية بحيث يعرف المعلن أنه من المحتمل أن يشتري المستخدم زوجًا من الجينز ولكن لا يتم إعطاؤه بالضبط هوية الشخص. يحاول مزود الشبكات الاجتماعية بهذه الطريقة الاحتفاظ بالقيمة الأخلاقية لخصوصية مستخدميه مع الاستمرار في الاستفادة من ربطهم بالمعلنين.

 

3.1.1.العاب وعوالم الانترنت

أول صدمة أخلاقية يواجها الشخص عند التفكير في ألعاب الانترنت هي ميل هذه الألعاب لتصوير العنف والعنصرية على أساس الجنس والعنف الجنسي. وتزعم العديد من التقارير الإخبارية بوجود علاقة سببية بين العنف في ألعاب الكمبيوتر والعنف الحقيقي. لكن عالم الاجتماع كريستوفر فرغسون انتقد بقوة الادعاء بأن العنف في ألعاب الفيديو له علاقة سببية بالعنف الفعلي (Ferguson 2007). ويرى مارك كواكلبيرغ أن هذه العلاقة ضعيفة وأن القضية الحقيقية المطروحة هي تأثير هذه الألعاب على الشخصية الأخلاقية للشخص (Coeckelbergh 2007). لكنه لازال يدعي بأن ألعاب الكمبيوتر يمكن تصميمها لتعزيز فضائل مثل التعاطف والتطور الأخلاقي العالمي، وبالتالي هو لا يعارض جميع الألعاب، فقط تلك التي يمنع فيها العنف النمو الأخلاقي (Coeckelbergh 2007). من الأمثلة الجيدة على ذلك تجربة الواقع الافتراضي التي صممتها منظمة Planned Parenthood في عام 2017، “… التي تركز على تجربة الإجهاض في أمريكا، وتؤثر بشكل إيجابي على شعور المشاهدين تجاه المضايقات التي يتعرض لها العديد من المرضى، مقدمي الخدمات، وموظفي المركز الصحي، من معارضي الإجهاض الآمن والقانوني “(Planned Parenthood, 2017).

يدافع ماركوس سكولزك (2010) عن تصوير العنف في ألعاب الفيديو وادعائه الرئيسي هو أن الأفعال في العالم الافتراضي تختلف تمامًا عن الأفعال في العالم الحقيقي. على الرغم من أن اللاعب قد “يقتل” لاعبًا آخر في العالم الافتراضي إلا أن اللاعب الذي أساء إليه قد عاد إلى اللعبة على الفور وسيظل الاثنان بالتأكيد اصدقاء في العالم الحقيقي. وبالتالي، فإن العنف الافتراضي يختلف تمامًا عن العنف الحقيقي وهو تمييز يشعر اللاعبون بالارتياح تجاهه (Schulzke 2010). في حين أن العنف الافتراضي قد يبدو مستساغًا للبعض، يسعى مورغان لاك (2009) إلى نظرية أخلاقية يمكنها أن تسمح بقبول القتل الافتراضي دون أن تتضمن أفعال غير أخلاقية مثل الاعتداء الجنسي على الأطفال. لكن كريستوفر بارتيل (2011) أقل قلقًا بخصوص التمييز الذي يحاول لاك وضعه ويرى بأن الاعتداء الجنسي على الأطفال هو تصوير إباحي حقيقي للأطفال وهو أمر مستهجن أخلاقيًا وغير قانوني في جميع أنحاء العالم.

رغم أن رؤية العنف سهلة في العاب الإنترنت، إلا أن هناك قيمة أخلاقية جوهرية تحدث وهي سياسات العوالم الافتراضية. يصف بيتر لودلو ومارك والاس التحركات الأولية للثقافة السياسية في الإنترنت في كتابهما، The Second Life Herald: The Virtual Tabloid that Witnessed the Dawn of the Metaverse (2007)، وكيف بدأ اللاعبون في عالم الإنترنت الكبير في تشكيل مجموعات ونقابات غالبًا ما تربك مصممي اللعبة وتتعارض أحيانًا مع أولئك الذين يصنعون اللعبة. حجتهما هي أن المصممين نادرًا ما يدركون أنهم ينشئون مساحة يسعى الناس فيها إلى قضاء معظم أوقاتهم فيها والانخراط في أنشطة اقتصادية واجتماعية حقيقية، وبالتالي لدى المصممين واجبات أخلاقية تعادل إلى حد ما أولئك الذين قد يكتبون دستورًا سياسيًا (Ludlow and Wallace 2007). وفقًا لبرسل (2008)، هناك التزام ضئيل بالديمقراطية أو المساواة من قبل أولئك الذين ينشئون ويمتلكون ألعاب الإنترنت وهذا يحتاج إلى نقاش إذا كان المزيد منا سيقضي وقتًا في العيش في هذه المجتمعات الافتراضية.

 

3.1.2. جاذبية عوالم الألعاب الافتراضية

يرجع القلق المستمر بشأن استخدام أجهزة الكمبيوتر وخاصة ألعاب الكمبيوتر لكونها قد تؤدي إلى العزلة والسلوك الغير اجتماعي. ومع ذلك، قد لا تدعم الدراسات هذه الفرضيات (Gibba, et al. 1983). فمع ظهور الألعاب متعددة اللاعبين على نطاق واسع، وألعاب الفيديو المصممة للعائلات، أصبح من الصعب تصديق فرضية العزلة الاجتماعية. ومع ذلك، تثير هذه الألعاب قضايا المساواة بين الجنسين. استخدم جيمس إيفوري مقالات وآراء تستعرض الالعاب على الانترنت في دراسة كاملة أظهرت أن عدد الشخصيات الذكورية يفوق عدد الشخصيات الأنثوية في الألعاب وأن الصور الأنثوية الموجودة في الألعاب تميل إلى الإغراء الجنسي. (Ivory 2006). يقترح سوكب (2007) أن طريقة اللعب في هذه العوالم الافتراضية غالبًا ما تعتمد على أسلوب اللعب الموجه لأنماط اللعب الذكورية مما يؤدي لإقصاء اللاعبات. وهؤلاء النساء اللائي يشاركن في اللعب على أعلى مستوى يلعبن أدوارًا تختلف في ثقافة اللعب تمامًا عن تلك التي يمارسها الذكور البيض، وغالبًا ما يقمن باستغلال جنسهن للحصول على القبول (Taylor et al. 2009). بالإضافة إلى ذلك درس جوان إم مكماهون وروني كوهين الدور الذي يلعبه الجندر في اتخاذ القرارات الأخلاقية في عالم الإنترنت الافتراضي مع احتمالية أن تحكم النساء على فعل مشكوك فيه على أنه غير أخلاقي أكثر من الرجال (2009). يقترح ماركوس جوهانسون إمكانية الحد من الفساد الأخلاقي الافتراضي من خلال معاقبة الجرائم الافتراضية بعقوبات افتراضية من أجل تعزيز مجتمعات افتراضية أكثر أخلاقية (Johansson 2009).

أثارت وسائل الإعلام مخاوف أخلاقية حول الطريقة التي تغيرت بها الطفولة من خلال استخدام تقنية المعلومات (see for example Jones 2011)، فقد تم تصميم العديد من التطبيقات خصيصًا للأطفال الرضع والأطفال الصغار مع تطبيقات تعليمية أو للترفيه فقط لإبقاء الأطفال مشغولين أثناء انشغال والديهم. وهذا يشجع الأطفال على التفاعل مع أجهزة الكمبيوتر من سن مبكرة قدر الإمكان. لكن بما أن الأطفال قد يكونوا عرضة لتلاعب وسائل التواصل مثل الإعلانات يتعين علينا أن نسأل عما إذا كانت هذه الممارسة مقبولة أخلاقيًا أم لا. يعتمد هذا على التطبيق المستخدم، فيمكن أن يشجع على اللعب الانفرادي الذي بدوره قد يؤدي إلى العزلة، ولكن البعض الاخر يخلق تفاعلًا أكثر لكل من الوالدين والأطفال عند اللعب (Siraj-Blatchford 2010). وتجدر الإشارة أيضًا إلى أن أطباء الأطفال نصحوا بأنه لا توجد فوائد معروفة للاستخدام المبكر لوسائل التواصل بين الأطفال الصغار، لكن هناك مخاطر محتملة (Christakis 2009). أظهرت الدراسات أنه من عام 1998 إلى عام 2008، أدت أنماط الحياة المستقرة بين الأطفال في انجلترا إلى أول انخفاض مُقاس في القوة منذ الحرب العالمية الثانية (Cohen et al. 2011). وليس واضحًا ما إذا كان هذا الانخفاض له علاقة مباشرة باستخدام تقنية المعلومات لكنه قد يكون عاملًا مساهمًا. في عام 2018، أصدرت الأكاديمية الأمريكية لطب الأطفال بعض الإرشادات البسيطة للآباء الذين يحاولون وضع حدود معقولة على هذا النشاط (Children and Media Tips from the American Academy of Pediatrics).

 

3.1.3.مفارقة الشفافية التقنية

قد يتساءل المرء لماذا تميل خدمات الوسائل الاجتماعية إلى أن تكون مجانية الاستخدام بالرغم مما تحققه غالبًا من أرباح خرافية للشركات الخاصة التي تقدم هذه الخدمات. لا يخفى على أحد أن طريقة تحقيق هذه الشركات للربح تتم من خلال بيع المعلومات التي يقوم المستخدمون بتحميلها على النظام أثناء تفاعلهم معه. فكلما زاد عدد المستخدمين وزادت المعلومات التي يقدمونها، زادت قيمة تجميع هذه المعلومات. وقد صرح مارك زوكربيرغ بالتزامه الفلسفي بالقيمة الاجتماعية لهذا في رسالته إلى المساهمين في 1 فبراير 2012:

 أنشأنا في موقع Facebook أدوات لمساعدة الأشخاص على التواصل مع الأشخاص الذين يرغبون في التواصل معهم ومشاركة ما يريدون ومن خلال القيام بذلك، وسعنا من قدرة الأشخاص على بناء العلاقات والحفاظ عليها. الأشخاص الذين يشاركون أكثر -حتى لو كان ذلك مع أصدقائهم المقربين أو عائلاتهم -يخلقون ثقافة أكثر انفتاحًا مما يؤدي إلى تفهم أفضل لحياة الآخرين ووجهات نظرهم. ونعتقد أن هذا يقوي العلاقات بين الناس ويساعدهم على التعرف على عدد كبير من وجهات النظر المختلفة. ومن خلال مساعدة الناس على تكوين هذه الروابط، نأمل في تجديد طريقة الناس في نشر واستهلاك المعلومات. ونرى أن على البنية التحتية للمعلومات في العالم أن تشبه الرسم البياني الاجتماعي “شبكة مبنية من أسفل إلى أعلى أو بين قرناء بدلًا من الطريق الأحادي المشيّد من أعلى إلى أسفل الموجود حتى الآن. ونرى أيضًا أن منح الأشخاص التحكم فيما ينشرونه هو مبدأ أساسي لتجديد هذه الطريقة” (Facebook, Inc., 2012).

دراسة القيمة الاجتماعية لهذا أمر قابل للنقاش لكن القيمة الاقتصادية لا يمكن إنكارها. ففي الوقت الذي كُتب فيه هذا كان يدرج مارك زوكربيرغ دائمًا في قائمة أغنى عشرة مليارديرات في مجلة فوربس وعادةً في المراكز الخمسة الأولى من تلك المجموعة النادرة. إنه إنجاز مبني على تقديم خدمة مجانية للعالم. وما تفرضه شركات مثل Facebook هي خدمات مثل الإعلانات الموجهة والتي تسمح لشركات الطرف الثالث بالوصول إلى المعلومات التي قدمها المستخدم لتطبيقات وسائل التواصل الاجتماعية. والنتيجة هي أن الإعلانات التي يتم شراؤها على تطبيق مثل Facebook، يُرجح أن يُنظر إليها على أنها مفيدة للمشاهدين الذين من المرجح أن ينقروا على هذه الإعلانات وشراء المنتجات المُعلن عنها. كلما كانت المعلومات التي تمت مشاركتها أكثر تفصيلًا وخصوصية، كلما زادت قيمتها عند الشركات التي يتم مشاركتها معها. ويتم تشجيع هذه الشفافية المتطرفة في مشاركة المعلومات الشخصية بعمق مع شركات مثل Facebook. أولئك الذين يستخدمون تقنيات الشبكات الاجتماعية يتلقون قيمة كما يتضح من النمو السريع لهذه التقنية.

تشير تقارير Statista إلى أنه في عام 2019 سيكون هناك 2.77 مليار مستخدم لوسائل التواصل الاجتماعي في جميع أنحاء العالم وسينمون إلى 3.02 بحلول عام 2021 (Statista، 2018). والسؤال هنا هو ما الذي نتخلى عنه من أجل الحصول على هذه الخدمة “المجانية”؟ في عام 2011 عندما كان هناك أقل من مليار مستخدم لوسائل التواصل الاجتماعي، حذر الناقد التقني أندرو كين من أن “المشاركة فخ” وأن هناك نوعًا من الإيمان المتزايد في الشفافية المتطرفة والذي شل من قدرتنا على التفكير النقدي في نوع القوة التي كنا نعطيها لهذه الشركات (Keen, 2011). وحتى قبل أن تحقق شركات مثل Facebook أرباحًا ضخمة كان هناك من يحذر من مخاطر الإيمان في الشفافية بتحذيرات مثل:

… ليس من المستغرب ازدياد انعدام الثقة عند الجمهور في السنوات التي تم فيها السعي وراء الانفتاح والشفافية بشغف. فالشفافية تقضي على السرية: لكنها قد لا تحد من الخداع والتضليل المتعمد الذي يهدم علاقات الثقة. إذا أردنا استعادة الثقة فنحن بحاجة إلى تقليل الخداع والأكاذيب بدلًا من السرية ((O’Neill, 2002.

في حالة Facebook، يمكننا أن نرى أن بعض تحذيرات النقاد كانت في محلها. في أبريل من عام 2018 ، تم استدعاء مارك زوكربيرغ أمام الكونجرس حيث اعتذر عن تصرفات شركته في فضيحة تضمنت إفشاء معلومات حول مستخدميه إلى باحث مستقل باعها إلى Cambridge Analytica  والتي كانت بمثابة شركة تشارك في تحليل البيانات السياسية. تم استخدام هذه البيانات بعد ذلك لاستهداف مستخدمي Facebook في الإعلانات السياسية والكثير منها كانت إعلانات مزيفة أنشأتها المخابرات الروسية لتعطيل الانتخابات الأمريكية في عام 2016 (Au-Yeung, 2018).

انتقدت الفيلسوفة شانون فالور تقديس الشفافية كنسخة مما تسميه “مفارقة الشفافية التقنية” (Vallor, 2016). وتشير إلى أن أولئك الذين يؤيدون تطوير التقنيات للترويج لشفافية المجتمعات بشكل جذري يفعلون ذلك على افتراض أن هذا الانفتاح سيزيد من المسؤولية والمثل الديمقراطية. لكن المفارقة هي أن تقديس الشفافية هذا غالبًا ما يحقق العكس تمامًا مع منظمات كبيرة غير خاضعة للمساءلة ولم يتم اختيارها ديمقراطيًا وتحتفظ بمعلومات يمكن استخدامها لإضعاف المجتمعات الديمقراطية. هذا بسبب العلاقة غير المتكافئة بين المستخدم والشركات التي يشاركها جميع بيانات حياته. فالمستخدم منفتح فعلًا بشكل جذري وشفاف تجاه الشركة لكن الخوارزميات المستخدمة لاستخراج البيانات والأطراف الثالثة التي تتم مشاركة هذه البيانات معها ليست شفافة ولا تخضع للمساءلة. فعلينا نحن مستخدمي هذه التقنيات التحلي بالشفافية لكن الشركات التي تستفيد من معلوماتنا ليست ملزمة بالشفافية بنفس القدر.

 

3.3.البرامج الضارة، برامج التجسس والحرب المعلوماتية

تزداد تهديدات البرامج الضارة وفيروسات الكمبيوتر بمعدل مذهل ويفيد متخصصون في صناعة الأمن أنه في حين أن أنواعًا معينة من هجمات البرامج الضارة مثل البريد العشوائي(Spam) أصبحت غير رائجة فإن أنواعًا جديدة من الهجمات مثل Ransomware وغيرها من الأساليب التي تركز على أجهزة الحوسبة المتنقلة، العملات المشفرة، واختراق البنية التحتية للحوسبة السحابية في ازدياد، متجاوزةً أي حل صغير لإبطاء أنواع الهجمات القديمة (Cisco Systems 2018; Kaspersky Lab 2017, McAfee 2018, Symantec 2018). ويتضح أن هذا النوع من النشاط سيكون معنا حتى المستقبل القريب. وبالإضافة إلى النشاط الإجرامي الكبير في إنتاج البرامج الضارة، علينا مراعاة الأنشطة المرتبطة لكن الأكثر غموضًا من الناحية الأخلاقية مثل القرصنة، الهاكتفيزم، وبرامج التجسس التجارية والحرب المعلوماتية. لكل من هذه الموضوعات مجموعته الخاصة من الغموض الأخلاقي. سنستكشف الآن بعضًا منها هنا.

 

رغم أن هناك اتفاق سائد بأن النشر المتعمد للبرامج الضارة أمر مشكوك فيه أخلاقيا، إلا أن هناك أيضًا موضوعا مثيرًا للاهتمام يتعلق بأخلاقيات الحماية من البرامج الضارة وبرامج مكافحة الفيروسات. فمع ارتفاع البرامج الضارة هناك نمو مماثل في صناعة الأمن، والذي أصبح الآن سوقًا بمليارات الدولارات. وحتى مع كل الأموال التي يتم إنفاقها على برامج الأمان لا يوجد تباطؤ في إنتاج الفيروسات. في الواقع حدث العكس. وهذا يثير قلق أخلاقي مثير للاهتمام يتعلق بالصناعة: ما هي القيمة التي يحصل عليها العملاء في أموالهم من صناعة الأمن؟ لقد ثبت أن النشر الهائل للبرامج الضارة يتجاوز قدرة برامج مكافحة الفيروسات على تخفيفها تمامًا. وهناك فجوة زمنية مهمة بين الوقت الذي يكتشف فيه مجتمع الأمن قطعة جديدة من البرامج الضارة والإصدار النهائي لترميم الأمن (Security Patch) وأدوات إزالة البرامج الضارة.

إن طريقة العمل (modus operandi) في مكافحة الفيروسات المتمثلة في تلقي عينة، تحليل العينة، إضافة كاشف (Detection) للعينة، إجراء ضمان الجودة، إنشاء تحديث، وأخيرًا إرسال التحديث إلى المستخدمين، تترك فرصة كبيرة للعدو … حتى لو افترضنا أن مستخدمي برامج مكافحة الفيروسات يقومون بالتحديث بشكل منتظم. (Aycock and Sullins 2010)

يستغل منتجي البرامج الضارة هذا التأخير باستمرار ويوجد في هذا النموذج ثغرة أمنية دائمة من المستحيل سدها. وبالتالي من المهم ألا يبالغ المتخصصون في مجال الأمن في مقدرتهم على حماية الأنظمة، ففي الوقت الذي يتم فيه اكتشاف برنامج ضار جديد ومعالجته، يكون قد تسبب بضرر كبير ولا يوجد حاليًا طريقة لإيقاف ذلك (Aycock and Sullins 2010).

كان الهواة في الماضي وراء إنشاء البرامج الضارة لكن هذا قد تغير ويعتبر الان نشاطًا إجراميًا في معظمه. (Cisco Systems 2018 ؛ Kaspersky Lab 2017 ، McAfee 2018 ، Symantec 2018). يرى سولينز و ايكوك (2010) أن الاعتماد على دفاع قوي ليس كافيًا فالموقف يتطلب ردًا مضادًا، ويقترحان برنامجًا للبحث ولإنشاء برامج ضارة ذات دوافع أخلاقية. لكن هذه ليست فكرة جديدة تمامًا. فقد اقترحها في الأصل عالم الكمبيوتر جورج ليدن في مقالته الافتتاحية في Communications of the ACM، “Not Teaching Viruses and Worms is Harmful” (2005)

هذه الفكرة تتعارض مع رأي الأغلبية فيما يتعلق بأخلاقيات التعلم ونشر البرامج الضارة. فالعديد من علماء الكمبيوتر والباحثين في أخلاقيات المعلومات متفقين على أن جميع البرامج الضارة غير أخلاقية (Edgar 2003؛ Himma 2007a؛ Neumann 2004؛ Spafford 1992؛ Spinello 2001). و وفقًا لـ سولينز و ايكوك ، يمكن تخفيف هذه المخاوف من خلال البحث المفتوح لفهم كيفية إنشاء البرامج الضارة من أجل مكافحة هذا التهديد بشكل أفضل (2010).

عندما يتم إنشاء برامج ضارة وبرامج تجسس من قبل الجهات الحكومية فإننا ندخل عالم الحرب المعلوماتية ومجموعة جديدة من المسائل الأخلاقية. تتعرض كل دولة متقدمة في العالم لهجمات إلكترونية يومية والهدف الأول هو الولايات المتحدة التي شهدت 1.8 مليار من الهجمات المزعومة شهريًا في عام 2010 (Lovely 2010) وفي عام 2017, شهد العالم 80 مليار عملية مسح ضارة 2017 (McAfee 2018). ويبدو أن غالبية هذه الهجمات تهدف فقط إلى البحث عن نقاط الضعف، لكنها يمكن أن تدمر أنترنت دول مثل الهجمات الإلكترونية في إستونيا في عام 2007 وتلك التي حدثت في جورجيا عام 2008. في حين أن الهجمات الإستونية والجورجية صممت إلى حد كبير لتشويش الاتصالات داخل البلدان المستهدفة في الآونة الأخيرة الا أنه تم استخدام الحرب المعلوماتية لتسهيل التخريب عن بعد. ربما يكون فيروس Stuxnet الشهير المستخدم لمهاجمة أجهزة الطرد المركزية النووية الإيرانية هو المثال الأول للبرامج المسلحة القادرة على إنشاء منشآت تدميرية عن بُعد (Cisco Systems 2018). من المرجح أن تشهد العقود القادمة نشر المزيد من الأسلحة السيبرانية من قبل الجهات الحكومية على طول خطوط الصدع السياسية المعروفة مثل تلك الموجودة بين إسرائيل وأمريكا وأوروبا الغربية ضد إيران، وأمريكا وأوروبا الغربية ضد الصين (Kaspersky Lab 2018). يتمثل التحدي الأخلاقي هنا في تحديد ما إذا كانت هذه الهجمات تعتبر تحديًا خطيرًا لسيادة دولة ما حتى تبرر ردود الفعل العسكرية والرد عليها بطريقة مبررة وأخلاقية (Arquilla 2010 ؛ Denning 2008 ، Kaspersky Lab 2018).

يحدد التحدي الأخلاقي الأساسي للحرب المعلوماتية كيفية استخدام تقنيات المعلومات المُسلحة بطريقة تحترم التزاماتنا تجاه الحرب العادلة والقانونية. ونظرًا لأن الحرب هي فعلًا مسعى مشكوك فيه أخلاقيًا، فمن الأفضل استخدام تقنيات المعلومات لتخفيف القتال العنيف. على سبيل المثال، قد يرى شخص ما أن فيروس Stuxnet الذي تم استخدامه ولم يتم اكتشافه من 2005 وحتى 2010 قد تسبب في أضرار لبرامج الأسلحة النووية الإيرانية التي كان من الممكن أن يتم إنجازها في أجيال سابقة من خلال غارات جوية أو عمل عسكري دينامي آخر كان من شأنه أن يتسبب في خسائر مدنية كبيرة –لكن حتى الآن لم يتم الإبلاغ عن أي خسائر بشرية ناتجة عن فيروس Stuxnet. وبالتالي قد تقلل البرامج الضارة من عدد الضحايا من المدنيين في النزاعات. البرمجيات الخبيثة المعروفة باسم “Flame” هي حالة مثيرة للاهتمام من البرامج الضارة وتشير الأدلة إلى أنها مصممة لدعم التجسس. قد يرى شخص ما بأن على المعلومات الدقيقة التي تُعطى لصناع القرار أثناء الحرب مساعدتهم في اتخاذ قرارات أفضل في ساحة المعركة. ومن ناحية أخرى، قد تسمح إمكانيات الحرب المعلوماتية الجديدة للدول بالانخراط في صراع مستمر منخفض المستوى يتجنب جهود صنع السلام التي قد تتطلب تسوية سياسية.

 

3.4.مخاوف مستقبلية

كما ذكرنا في المقدمة السابقة فإن تقنيات المعلومات في حالة دائمة من التغير والابتكار. من المستحيل تقريبًا تخيل تقنيات الإنترنت التي أحدثت الكثير من التغيير الاجتماعي قبل ظهورها منذ عقود. وعلى الرغم من أننا قد لا نكون قادرين على التنبؤ بجميع تقنيات المعلومات المستقبلية الممكنة، من المهم محاولة تخيل التغييرات التي من المحتمل أن نراها في التقنيات الناشئة. يرى جيمس مور بأن فلاسفة الأخلاق بحاجة إلى الاهتمام بالتقنيات الناشئة والمساعدة في التأثير على تصميم هذه التقنيات في وقت مبكر لتشجيع النتائج الأخلاقية المفيدة (Moor 2005). تحتوي الأقسام التالية على بعض المخاوف التقنية المحتملة.

 

3.4.1.تسريع التغيير

تتمتع تقنية المعلومات بنمط نمو مثير للاهتمام تمت ملاحظته منذ تأسيس هذه الصناعة. فقد لاحظ غوردون مور، مهندس في أنتل، أن عدد المكونات التي يمكن تثبيتها على دارة متكاملة يتضاعف كل عام مقابل تكلفة اقتصادية ضئيلة ويعتقد أن الأمر قد يستمر على هذا النحو لعقد آخر أو نحو ذلك من وقت ملاحظته في عام 1965 (Moore 1965). أظهر التاريخ أن تنبؤاته كانت متحفظة إلى حد ما. واستمر تضاعف السرعة والامكانيات جنبًا إلى جنب مع تخفيض تكاليف إنتاجها إلى النصف تقريبًا كل ثمانية عشر شهرًا منذ عام 1965، ومن المرجح أن تستمر. لا تقتصر هذه الظاهرة على رقائق الكمبيوتر، يمكن العثور عليها أيضًا في العديد من أشكال تقنيات المعلومات المختلفة. استحوذت قوة التغيير المتسارع على خيال المخترع الشهير والمستقبلي راي كرزويل. ففي تنبؤ شهير له قال أنه إذا استمرت مضاعفة الامكانيات وأصبح هناك المزيد والمزيد من تقنيات تقنية المعلومات فستأتي نقطة زمنية يصبح التغيير من جيل واحد من تقنية المعلومات إلى الجيل التالي هائلًا لدرجة أنه سيغير كل شيء في معنى أن تكون إنسانا. أطلق كرزويل على هذا الحدث المحتمل اسم “التفرد” وفي ذلك الوقت توقع أن تقنيتنا ستسمح لنا بأن نصبح أنواعًا جديدة من ما بعد الإنسان (2006). وإذا كان هذا صحيحًا، فلن يكون هناك تغيير أكثر تأثيرًا في قيمنا الأخلاقية. هناك بعض الدعم لهذه الأطروحة من مجتمعات التقنية في معاهد مثل مؤسسة دراسات التسريع ومعهد مستقبل البشرية، و H +.  كانت ردود أفعال الفلاسفة على هذه الفرضية متنوعة ولكن انتقادية إلى حد كبير. على سبيل المثال، ترى ماري ميدلي (1992) بأن الاعتقاد بأن العلم والتقنية سيجلبان لنا الخلود والسمو الجسدي مبني على معتقدات علمية زائفة وخوف عميق من الموت. وعلى نفس المنوال، يرى سولينز (2000) بأنه غالبًا ما يكون هناك جانب شبه ديني في قبول ما بعد الإنسانية الملتزم بنتائج معينة مثل تحميل الوعي البشري في أجهزة الكمبيوتر كوسيلة لتحقيق الخلود، وأن قبول فرضية ما بعد الإنسانية له تأثير على القيم المضمنة في تقنيات الكمبيوتر والتي يمكن أن تكون رافضة أو معادية لجسم الإنسان.

هناك انتقادات مقنعة أخرى لهذه الحجة ولكن ليس هناك أي نقد بسيط مثل إدراك أن:

… بعد كل شيء، هناك حد في كيف يمكن للأشياء الصغيرة أن تتلاشى قبل أن تكون ببساطة. لم يعد قانون مور ساريًا. فقط لأن شيئًا ما ينمو بشكل كبير لبعض الوقت لا يعني أنه سيستمر في هذا إلى الأبد. (Floridi, 2016).

في حين أن العديد من الأنظمة الأخلاقية تضع قيمة أخلاقية أساسية على الحفاظ على الطبيعة والعالم الطبيعي وحمايته، لا يرى أنصار ما بعد الإنسانية أي قيمة جوهرية في تحديد ما هو طبيعي وما هو غير ذلك ويعتبرون حجج الحفاظ على بعض الحالة الطبيعية المتصورة لجسم الإنسان على أنها عقبة غير مبررة أمام التقدم. لا ينتقد جميع الفلاسفة نزعة ما بعد الإنسانية، فعلى سبيل المثال، يرى نيك بوستروم (2008) من معهد مستقبل الإنسانية في جامعة أكسفورد بأنه بغض النظر عن نقاش الجدوى، علينا استنتاج أن هناك أشكالًا لما بعد الإنسانية جديرة بالاهتمام ومن شأنها أن تؤدي إلى إطالة الحياة. بشكل عام، سيكون شيئًا جيدًا أن يتحول البشر إلى ما بعد البشر، إذا كان ذلك ممكنًا على الإطلاق (Bostrom, 2008).

 

3.4.2.الذكاء الاصطناعي والحياة الاصطناعية

يشير الذكاء الاصطناعي (AI) إلى العديد من المشاريع البحثية الطويلة الأمد الموجهة نحو بناء تقنيات المعلومات التي تقدم بعض أو كل جوانب الذكاء على المستوى البشري وحل المشكلات. لا يعتبر مشروع الحياة الاصطناعية (ALife) بِقدم الذكاء الاصطناعي، ويركز على تطوير تقنيات المعلومات و / أو التقنيات البيولوجية الاصطناعية التي تقدم وظائف الحياة الموجودة عادةً في الكائنات البيولوجية. (يمكن الاطلاع على وصف كامل للمنطق والذكاء الاصطناعي في مدخل المنطق والذكاء الاصطناعي). ترى الحياة الاصطناعية بشكل أساسي أن علم الأحياء هو نوع من تقنية المعلومات يحدث بشكل طبيعي ويمكن تعديله وهندسته عكسيًا في أنواع أخرى من التقنيات. هناك مشاريع بحثية هائلة عن الذكاء الاصطناعي والحياة الاصطناعية تتحدى التفسير البسيط. لكن التركيز هنا سيكون على القيم الأخلاقية التي تؤثر عليها هذه التقنيات والطريقة التي يتم بها برمجة بعض هذه التقنيات للتأثير على العاطفة والمسألة الأخلاقي.

 

3.4.2.1.الذكاء الاصطناعي

يعود الفضل إلى آلان تورينغ في تحديد مشروع البحث الذي عرف باسم الذكاء الاصطناعي في بحثه المنشور عام 1950 بعنوان “Computing Machinery and Intelligence.”. وصف “لعبة التقليد” على أنها محاولة الكمبيوتر خداع المتحدث البشري على أنه ليس حاسوبًا بل إنسانًا آخر (Turing 1948, 1950). في عام 1950، في ادعائه الشهير” أعتقد أنه في غضون خمسين عامًا…. سيتحدث أي شخص عن تفكير الآلات دون توقع معارضات” .

وصف الاختبار وآثاره على الفلسفة خارج القيم الأخلاقية موجود هنا (مدخل اختبار تورينغ). ربما كان تنبؤ تورينغ مفرطًا في الطموح، وفي الواقع، يرى البعض بأننا لسنا قريبين من تحقيق حلم تورينغ. على سبيل المثال، يرى لوتشانو فلوريدي (2011a) بأنه على الرغم من أن الذكاء الاصطناعي نجح كوسيلة في زيادة ذكائنا، الا أنه كفرع من العلوم المعرفية المهتمة بإنتاج الذكاء، كان خيبة أمل مؤسفة. لكن البعض يرى العكس ويدعي بأن اختبار تورينغ قد نجح بالفعل أو على الأقل أن المبرمجين على وشك القيام بذلك. على سبيل المثال، أفادت بي بي سي في عام 2014 أن اختبار تورينغ نجح بواسطة برنامج لإقناع المحكّمين بأنه كان صبيًا أوكرانيًا يبلغ من العمر 13 عامًا، ولكن مع ذلك لا يزال العديد من الخبراء متشككين (BBC 2014).

سنفترض جدلًا بأن تورينغ على صواب حتى لو كان بعيدًا في تقديره للوقت الذي سينجح فيه الذكاء الاصطناعي في إنشاء آلة يمكنها التحدث معك. عبّر الأستاذ في جامعة ييل ديفيد غليرجر عن قلقه من أنه سيكون هناك بعض القضايا الأخلاقية غير المريحة. “لن يكون لديك أساس في معاملته على أنه كائن لديك واجبات أخلاقية تجاهه وليس كأداة لاستخدامها كما تريد” (Gelernter 2007). يقترح غليرجر أن الوعي شيء ضروري للفعل الأخلاقي وأننا بدونه قد نتعامل مع أي شيء بأي طريقة نريدها دون مراعاة أخلاقية. لكن سولينز (2006) يعارض هذا الرأي بقوله أن الوعي ليس ضروريًا للفعل الأخلاقي. على سبيل المثال، يجب منح الحيوانات غير البشرية وغيرها من الكائنات الحية وغير الحية في بيئتنا حقوقًا أخلاقية معينة، وفي الواقع، أي ذكاء اصطناعي تورينغي متمكن سيكون له أيضًا واجبات أخلاقية و حقوق، بغض النظر عما إذا كان كائنًا واعيًا (Sullins 2006 ).

من المؤكد أن الذكاء الاصطناعي قادر على إنشاء آلات يمكنها التحدث بفعالية مع البشر وبطرق بسيطة كما يتضح في Apple Siri وAmazon Alexa وOK Goolge، الخ، إلى جانب العديد من الأنظمة التي تستخدمها الشركات لأتمتة خدمة العملاء، ولكن هذه لا تزال بعيدة عن الأنواع الطبيعية من المحادثات غير المكتوبة التي يجريها البشر مع بعضهم البعض. لكن هذا قد لا يهم عندما يتعلق الأمر بتقييم الأثر الأخلاقي لهذه التقنيات. بالإضافة إلى ذلك، لا يزال هناك العديد من التطبيقات الأخرى التي تستخدم تقنية الذكاء الاصطناعي. وتقريبًا جميع تقنيات المعلومات التي ناقشناها سابقًا، مثل البحث، ألعاب الكمبيوتر، البحث عن البيانات، تصفية البرامج الضارة، والروبوتات، الخ، تستخدم تقنيات برمجة الذكاء الاصطناعي. وبالتالي سوف ينمو الذكاء الاصطناعي ليكون أساسا للتأثيرات الأخلاقية لتقنيات المعلومات. تعمل العديد من الحكومات والجمعيات المهنية الآن على تطوير إرشادات ومعايير أخلاقية للمساعدة في تشكيل هذه التقنية المهمة، وتعتبر المبادرة العالمية لأخلاقيات الأنظمة الذكية والمستقلة (IEEE 2018) من الأمثلة الجيدة على ذلك.

 

3.4.2.2.الحياة الاصطناعية

الحياة الاصطناعية (ALife) هي حصيلة الذكاء الاصطناعي وتعني استخدام تقنية المعلومات لتقليد أو لتركيب وظائف الحياة. اهتمت الفلسفة بمشكلة تعريف الحياة منذ تأسيسها (انظر مدخل الحياة لإلقاء نظرة على مفهوم الحياة وتداعياتها الفلسفية). إذا نجح العلماء والتقنيون في اكتشاف الظروف الضرورية والكافية للحياة، ثم قاموا بتركيبها بنجاح في آلة أو من خلال البيولوجيا التركيبية، فسنسير في منطقة لها تأثير أخلاقي كبير. قام مارك بيداو بتتبع الآثار الفلسفية للحياة الاصطناعية لمدة من الزمن، ورأى بأن هناك شكلين متميزين من الحياة الاصطناعية والتي سيكون لكل منهما تأثيرات أخلاقية مختلفة إذا نجحنا أو عندما ننجح في إدراك أجندات البحث المنفصلة هذه (Bedau 2004; Bedau and Parke 2009)

أحد أشكال الحياة الاصطناعية حاسوبي تمامًا، وفي الواقع هو أول شكل من الحياة الاصطناعية تمت دراسته. استُلهِم موضوع الحياة الاصطناعية من عمل عالم الرياضيات جون فون نيومان على الإنسان الالي الخلوي المستنسخ ذاتيا والتي يعتقد فون نيومان أنه سيؤدي إلى فهم حاسوبي لعلم الأحياء وعلوم الحياة (1966). قام عالم الكمبيوتر كريستوفر لانغتون بتبسيط نموذج فون نيومان بشكل كبير وأنتج إنسان آلي بسيطًا يسمى “Loops” في أوائل الثمانينيات، وساهم في الدخول لهذا المجال من خلال تنظيم المؤتمرات القليلة الأولى حول الحياة الاصطناعية (1989). تختلف برامج الحياة الاصطناعية تمامًا عن برامج الذكاء الاصطناعي. بينما يركز الذكاء الاصطناعي على إنشاء الذكاء أو تحسينه، تكتفي الحياة الاصطناعية ببرامج ذات عقلية بسيطة جدًا تظهر وظائف الحياة بدلًا من الذكاء. والمسألة الأخلاقية الأساسية هنا هي أن هذه البرامج مصممة للإنتاج الذاتي، وبهذه الطريقة هي تشبه فيروسات الكمبيوتر. يمكن أن تصبح برامج الحياة الاصطناعية الناجحة ناقلات للبرامج الضارة. أما الشكل الثاني من الحياة الاصطناعية فهو مشحون أخلاقيًا أكثر. ويعتمد هذا الشكل من الحياة الاصطناعية على استخدام العمليات البيولوجية والكيميائية الحيوية الفعلية بطريقة تنتج أشكال حياة جديدة لا تُرى في الطبيعة.

تمكن علماء في معهد J. Craig Venter من إنشاء بكتيريا اصطناعية تسمى JCVI-syn1.0 في مايو 2010. وبينما اهتمت وسائل الإعلام بهذا الاختراع، فقد ركزت على التأثيرات الأخلاقية والاجتماعية المحتملة لإنشاء مادة البكتيريا الاصطناعية. أطلق كريغ فينتر بنفسه حملة علاقات عامة في محاولة لتوجيه الحديث حول القضايا المتعلقة بخلق الحياة.  يعطينا الحدث الأول من تركيب الحياة شيء من الإثارة والجدل ينشأ عندما يتم تركيب خلايا أولية اصطناعية أكثر قوة وقابلية للحياة. وفعلًا تعتبر المخاوف الأخلاقية التي أثارتها “الحياة الاصطناعية الرطبة ” (Wet Alife)، كما يسمى هذا النوع من البحث، من اختصاص أخلاقيات علم الأحياء (انظر مدخل النظرية وأخلاقيات علم الأحياء). ولكن هناك بعض القلق بالنسبة لنا هنا حيث تعد الحياة الاصطناعية الرطبة جزءًا من عملية تحويل النظريات من علوم الحياة إلى تقنيات معلومات. وسيؤدي هذا إلى طمس الحدود بين أخلاقيات علم الأحياء وأخلاقيات المعلومات. وكما قد يؤدي برنامج الحياة الاصطناعية إلى برامج ضارة خطيرة، قد تؤدي الحياة الاصطناعية الرطبة أيضًا إلى ظهور بكتيريا خطيرة أو عوامل مرضية أخرى. يقترح النقاد وجود حجج أخلاقية قوية ضد السعي وراء هذه التقنية، وأن علينا تطبيق المبدأ الوقائي الذي ينص على أنه إذا كان هناك أي احتمال في تسبب تقنية ما ضررًا كارثي، ولا يوجد إجماع علمي على أن الضرر لن يحدث، على الراغبين في تطوير تلك التقنية أو الساعين وراء هذا البحث إثبات أنها غير ضارة أولًا (See Epstein 1980). لدى مارك بيدو ومارك تراينت رأي يعارض الالتزام القوي بالمبدأ الوقائي، ويقترحان أنه بدلًا من هذا علينا اختيار الشجاعة الأخلاقية في مواصلة مثل هذه الخطوة الهامة في فهم الإنسان للحياة (2009). هي دعوة إلى المفهوم الأرسطي للشجاعة، وليس إلى الاندفاع المتعجل والطائش نحو المجهول، ولكن إلى خطوة حازمة وحذرة نحو الإمكانيات التي يوفرها هذا البحث.

 

3.4.3.الروبوتات والقيم الأخلاقية

لم ترض تقنيات المعلومات بأن تبقى محصورة في العوالم الافتراضية وتطبيقات البرامج. فهذه التقنيات تتفاعل أيضًا معنا بشكل مباشر من خلال تطبيقات الروبوتات. ومع أن الروبوتات تقنية ناشئة الا أنها أنتجت بالفعل عددًا من التطبيقات التي لها آثار أخلاقية مهمة. إن تقنيات مثل الروبوتات العسكرية، الروبوتات الطبية، الروبوتات الشخصية، وعالم روبوتات الجنس، ليست إلا بعضًا من الاستخدامات الموجودة للروبوتات والتي تؤثر وتعبر عن التزاماتنا الأخلاقية (Anderson and Anderson 2011; Capurro and Nagenborg 2009; Lin et al. 2012, 2017).

هناك بالفعل عدد من المساهمات القيمة في المجالات المتنامية لأخلاق الآلة وأخلاقيات الروبوتات (roboethics). على سبيل المثال، في كتاب الان ووالاك Moral Machines: Teaching Robots Right from Wrong (2010)، قدم المؤلفان أفكارًا لتصميم وبرمجة لآلات يمكن أن تفكر وظيفيًا في المسائل الأخلاقية، بالإضافة إلى أمثلة من مجال الروبوتات حيث يحاول المهندسون فيها إنشاء آلات يمكنها التصرف بطريقة دفاعية أخلاقيًا. لكن لن يكون إدخال الآلات الشبه ذاتية او الذاتية بالكامل (كالآلات التي تتخذ قرارات بتدخل بشري ضئيل أو بدون تدخل) في الحياة العامة أمرًا بسيطًا. لتحقيق هذه الغاية، ساهم والاك أيضًا (2011) في نقاش حول دور الفلسفة في المساعدة على تصميم السياسة العامة في استخدام وتنظيم الروبوتات.

أثبتت الروبوتات العسكرية بأنها واحدة من أكثر تطبيقات الروبوتات المشحونة أخلاقيًا (Lin et al. 2008, 2013, Lin 2010; Strawser, 2013). تعمل هذه الآلات حاليًا عن بُعد إلى حد كبير “روبوتات عن بعد” (telerobots) أو بشكل شبه ذاتي، ولكن من المرجح أن تصبح هذه الآلات مع مرور الوقت أكثر ذاتيةً بسبب ضرورات الحرب الحديثة (Singer 2009). في العقود الأولى من الحروب في القرن الحادي والعشرين، شاركت الأسلحة الآلية في العديد من عمليات القتل لكل من الجنود وغير المقاتلين (Plaw 2013)، وهذه الحقيقة وحدها تثير قلقًا أخلاقيًا عميقًا. أجرى غيرهارد دابرينغر العديد من المقابلات مع علماء الأخلاق والتقنيين فيما يتعلق بآثار الحرب الآلية (Dabringer 2010). والكثير من الأخلاقيين حذرين في قبولهم للحرب الآلية ويشترطون أن يتم استخدام التقنية لتعزيز السلوك الأخلاقي في الحرب، عن طريق تقليل الخسائر المدنية والعسكرية مثلًا أو ربما مساعدة المحاربين على اتباع القانون الإنساني الدولي، وغيره من قواعد السلوك القانونية والأخلاقية في الحرب (see Lin et al. 2008, 2013; Sullins 2009b)، لكن لدى آخرين شك شديد في احتمالات حرب أخلاقية مستقلة بسبب قضايا مثل المخاطرة بالمدنيين والسهولة التي يمكن إعلان الحروب فيها نظرًا لأن الروبوتات ستتولى معظم  المخاطر (Asaro 2008; Sharkey 2011).

 

4.تقنيات المعلومات الأخلاقية

التطور الرئيسي في مجال تقنيات المعلومات هو كونها ليست فقط موضوع للنقاش الأخلاقي، ولكن بدأ استخدامها أيضًا كأداة بذاتها في النقاش الأخلاقي. بما أن تقنيات وتطبيقات الذكاء الاصطناعي نوع من الحلول الآلية للمشكلات، وتعتبر النقاشات الأخلاقية مشكلة، فقد كانت مجرد مسألة وقت حتى ظهرت تقنيات التفكير الأخلاقي الآلي. ولا تزال هذه مجرد تقنية ناشئة ولكن لها عدد من الآثار الأخلاقية المثيرة للاهتمام والتي سيتم توضيحها في الأسفل. ومن المرجح أن تشهد العقود القادمة عددًا من التطورات في هذا المجال والتي تحتاج إلى اهتمام علماء الأخلاق فور حدوثها. جمع سوزان ومايكل أندرسون عددًا من المقالات بخصوص هذا الموضوع في كتابهما Machine Ethics (2011)، وقد كُرّس جزء من دراسات روتشي لابيشياي لهذا الموضوع في عمل Research on Technoethics (2009).

 

4.1.تقنية المعلومات كنموذج للاكتشاف الأخلاقي

لطالما كان باتريك غريم مؤيدًا للرأي القائل باستخدام الفلسفة تقنيات المعلومات لأتمتة وتوضيح تجارب الفكر الفلسفي (Grim et al.1998؛ Grim 2004). كتب بيتر دانيلسون (1998) أيضًا بشكل موسع عن هذا الموضوع بدءًا من كتابه (نمذجة العقلانية، الأخلاقيات، والتطور) وأيضًا في الكثير من الأبحاث المبكرة في النظرية الحوسبية للأخلاق، والتي تركز على استخدام نماذج الكمبيوتر لتوضيح ظهور التعاون بين برمجيات الذكاء الاصطناعي البسيطة أو وسائل الحياة الاصطناعية (Sullins 2005).

يرى لوتشيانو فلوريدي وجي دبليو ساندرز بأن المعلومات يمكن أن تكون فكرة قوية تساعد في حل بعض المشكلات الأخلاقية المعروفة في الفلسفة، مثل طبيعة الشر، كما هي مستخدمه في نظرية الحوسبة (1999, 2001).و يقترحان بالإضافة إلى الشر الأخلاقي والشر الطبيعي، يعد المفهومان مألوفان للفلسفة (انظر مدخل مشكلة الشر)، ونضيف مفهومًا ثالثًا نسميه الشر الاصطناعي (2001). يؤكد فلوريدي وساندرز أنه إذا فعلنا ذلك سنستطيع رؤية كون أفعال الأدوات الاصطناعية

… يمكن تحديدها بأنها جيدة أو شريرة أخلاقيًا حتى في حال عدم وجود مشاركين واعيين بيولوجيًا، وبالتالي سيسمح هذا للأدوات الاصطناعية بارتكاب الشر، بل حتى ب”تلقيه” أو “المعاناة” منه. (Floridi and Sanders 2001).

يمكن بعد ذلك مساواة الشر بشيء مثل فناء المعلومات (Information Dissolution) حيث الخسارة الغير قابلة لاسترداد للمعلومات هي أمر سيء، والحفاظ على المعلومات أمر جيد (Floridi and Sanders 2001). يمكن لهذه الفكرة أن تقربنا من طريقة لقياس الآثار الأخلاقية لأي إجراء معين في بيئة المعلومات.

 

4.2.تقنية المعلومات كنظام أخلاقي

اقترح الفيلسوف الأمريكي جون ديوي في بدايات القرن العشرين (انظر مدخل جون ديوي) نظرية بحثية (Theory of Inquiry) مبنية على الاستخدام الأداتي للتقنية، ولديه أيضًا تعريف موسع للتقنية لا يشمل فقط الأدوات والآلات الشائعة بل أيضًا أنظمة المعلومات مثل المنطق والقوانين وحتى اللغة (Hickman 1990). وكان يرى بأننا في علاقة “تعاملية” مع كل هذه التقنيات التي نكتشف من خلالها عالمنا ونبنيه (Hickman 1990). وهي وجهة نظر مفيدة لأنها تتيح لنا تعزيز فكرة أن تقنية المعلومات المتعلقة بالأخلاق ليست مستحيلة، والاهتمام أيضًا بفكرة أن العلاقات والمعاملات بين الوسائل البشرية وتلك الموجودة بين البشر ومصنوعاتهم لها أوجه تشابه وجودية مهمة. بالرغم من أن ديوي لم يفهم الثورات القادمة في تقنية المعلومات بشكل واضح، إلا أن نظريته مفيدة لنا لأن اقتراحه هو أن الأخلاق ليست مجرد نظرية، بل تطبيق، وحل المشكلات في الأخلاق يشبه حل المشكلات في علم الجبر (Hickman 1990). إذا كان ديوي على حق، فإن هناك احتمالًا مثيرًا للاهتمام وهو أن الأخلاق والأخلاقيات مشاكل يمكن حسابها، وبالتالي ينبغي أن تكون هناك إمكانية لإنشاء تقنية معلومات قادرة على احتواء أنظمة التفكير الأخلاقية.

في عام 1974 اقترح الفيلسوف ماريو بونج أن نأخذ فكرة “أخلاقيات التقنية” على محمل الجد بحجة أن على الفلاسفة الأخلاقيين محاكاة طريقة تعامل المهندسين مع المشاكل. فبدلًا من الضرورات القاطعة، يستخدم المهندس في طريقة الاستنتاج:

الأشكال… إذا كان A ينتج B، وأنت تفضلB، فاختر A، وإذا كان A ينتج B، و C ينتج D، وانت تفضل B على D، فاختر A بدلًا من C. باختصار، القواعد التي ابتكرها تستند إلى الحقيقة والقيمة، وأقر أن هذه هي الطريقة التي يجب أن تُصاغ بها القواعد الأخلاقية، أي كقواعد سلوك مستمدة من التصريحات العلمية والأحكام التفضيلية. باختصار، يمكن اعتبار الأخلاق فرعًا من فروع التقنية (Bunge 1977, 103).

إن أخذ هذا الرأي على محمل الجد يعني أن وضع قواعد تقنيات المعلومات هو أيضًا وضع لأنظمة أخلاقية محددة تتفاعل فيها الوسائل البشرية والصناعية من خلال المعاملات الأخلاقية، على الأقل أحيانًا. لذلك قد ينشئ المتخصصون في تقنية المعلومات أنظمة أخلاقية سواء كانوا على علم بذلك أم لا، وسواء أرادوا هذه المسؤولية أم لا.

 

4.3.الكائنات المعلوماتية كأدوات أخلاقية

أكثر الكتابات شمولًا والتي تناقش لصالح احتمال استخدام تقنية المعلومات لإنشاء أدوات أخلاقية اصطناعية هي تلك التي كتبها لوتشيانو فلوريدي (1999, 2002, 2003, 2010b, 2011b) ، وايضًا فلوريدي و جيف دبليو ساندرز (1999, 2001, 2004). يعترف فلوريدي (1999) أن المسائل التي تثيرها تأثيرات تقنية المعلومات الأخلاقية لها تأثير على نظرياتنا الأخلاقية التقليدية. وللتخفيف من هذا التأثير يرى بأن المطلوب هو فلسفة موسعة للمعلومات (2002). وبعد هذه الخطوة، يدعي فلوريدي (2003) أن المعلومات بيئة شرعية بحد ذاتها ولها قيمة جوهرية خاصة بها تشبه إلى حد ما البيئة الطبيعية، ومن جهة أخرى غريبة بشكل جذري، لكن في كلتا الحالتين النتيجة هي أن المعلومات بحد ذاتها شيء يستحق الاهتمام الأخلاقي. يستخدم فلوريدي (2003) هذه الأفكار لإنشاء نموذج نظري للعمل الأخلاقي عن طريق استخدام منطق البرمجة الشيئية (Object Oriented Programming).

يتكون نموذجه من سبعة عناصر: 1) الوسائل الأخلاقية، 2) المتلقي الأخلاقي، (أو بشكل أفضل المتفاعل الأخلاقي)، 3) تفاعلات هذه العوامل، 4) إطار معلومات الوسائل، 5) المعلومات الفعلية المتاحة للوسائل فيما يتعلق بالموقف الذي تحاول أن تنظر فيه، 6) البيئة التي يحدث فيها التفاعل، و 7) الموقف الذي يحدث فيه التفاعل (Floridi 2003, 3). لاحظ أنه لا يوجد فرضية لأنطولوجيا الوكلاء المعنين في العلاقة الأخلاقية المصممة وقد يكونون أي مزيج أو صناعيون أو طبيعيون في الأصل. (Sullins 2009a).

هناك كتابات إضافية تنتقد آراء مثل تلك الموجودة في كتاب فلوريدي، وذلك على أمل توسيع فكرة التفكير الأخلاقي الآلي بحيث يمكن للمرء التحدث عن العديد من الأنواع المختلفة من التقنيات الأخلاقية المؤتمتة بدءًا من تطبيقات بسيطة إلى وسائل أخلاقية كاملة لديها حقوق ومسؤوليات مماثلة للبشر (Adam 2008; Anderson and Anderson 2011; Johnson and Powers 2008; Schmidt 2007; Wallach and Allen 2010).

بينما يدرك العلماء كوننا لا نزال بعيدين نوعًا ما عن إنشاء تقنية معلومات يمكن الاعتراف بها بشكل صريح كأداة أخلاقية اصطناعي، هناك حجج نظرية قوية ترى بأن التفكير الأخلاقي الآلي احتمال نهائي، ولذلك هو مجال دراسة مناسب للمهتمين بالآثار الأخلاقية لتقنيات المعلومات.

 

 

 


المراجع:

  • Adam, A., 2002, “Cyberstalking and Internet pornography: Gender and the gaze,” Ethics and Information Technology, 4(2): 133–
  • –––, 2008, “Ethics for things,” Ethics and Information technology, 10(2–3): 149–
  • American Academy of Pediatrics, 2018, “Children and Media Tips from the American Academy of Pediatrics,” May 1,available online.
  • Anderson, M. and S. L. Anderson (eds.), 2011,Machine Ethics, Cambridge: Cambridge University Press.
  • Arkin, R., 2009,Governing Lethal Behavior in Autonomous Robots, New York: Chapman and Hall/CRC.
  • Arquilla, J., 2010, “Conflict, Security and Computer Ethics,” in Floridi 2010a.
  • Asaro, P., 2008. “How Just Could a Robot War Be?” in Philip Brey, Adam Briggle and Katinka Waelbers (eds.),Current Issues in Computing And Philosophy, Amsterdam, The Netherlands: IOS Press, pp. 50–
  • –––, 2009. “Modeling the Moral User: Designing Ethical Interfaces for Tele-Operation,” IEEE Technology & Society, 28(1): 20–
  • Au-Yeung A., 2018. “Why Investors Remain Bullish On Facebook in Day Two Of Zuckerberg’s Congressional Hearnings,”Forbes, April 11,available online.
  • Aycock, J. and J. Sullins, 2010, “Ethical Proactive Threat Research,” Workshop on Ethics in Computer Security Research (LNCS 6054), New York: Springer, pp. 231–
  • Bartell, C., 2011, “Resolving the gamer’s dilemma,” Ethics and Information Technology, 14(1):11–
  • Baase, S., 2008,A Gift of Fire: Social, Legal, and Ethical Issues for Computing and the Internet, Englewood Cliffs, NJ: Prentice Hall.
  • BBC, 2014, “Computer AI passes Turing test in ‘world first’,” BBC Technology[available online]
  • Bedau, M., 2004, “Artificial Life,” in Floridi 2004.
  • Bedau, M. and E. Parke (eds.), 2009,The Ethics of Protocells: Moral and Social Implications of Creating Life in the Laboratory, Cambridge: MIT Press.
  • Bedau, M. and M. Traint, 2009, “Social and Ethical Implications of Creating Artificial Cells,” in Bedau and Parke 2009.
  • Bostrom, N., 2008, “Why I Want to be a Posthuman When I Grow Up,” inMedical Enhancement and Posthumanity, G. Gordijn and R. Chadwick (eds), Berlin: Springer, pp. 107–
  • Brey, P., 2008, “Virtual Reality and Computer Simulation,” in Himma and Tavanni 2008
  • –––, 2010, “Values in Technology and Disclosive Computer Ethics,” in Floridi 2010a.
  • Bunge, M. 1977, “Towards a Technoethics,” The Monist, 60(1): 96–
  • Bynum, T., 2000, “Ethics and the Information Revolution,” Ethics in the Age of Information Technology, pp. 32–55, Linköping, Sweden: Center for Applied Ethics at Linköping University.
  • –––, 2008, “Norbert Wiener and the Rise of Information Ethics,” in van den Hoven and Weckert 2008.
  • Capurro, R., Nagenborg, M., 2009,Ethics and Robotics, [CITY]: IOS Press
  • Christakis, D. A., 2009, “The effects of infant media usage: what do we know and what should we learn?” Acta Pædiatrica, 98 (1): 8–
  • Cisco Systems, Inc., 2018,Cisco 2018 Annual Security Report: Small and Mighty: How Small and Midmarket Businesses Can Fortify Their Defenses Against Todays Threats, San Jose, CA: Cisco Systems Inc. [available online]
  • Coeckelbergh, M., 2007, “Violent Computer Games, Empathy, and Cosmopolitanism,” Ethics and Information Technology, 9(3): 219–231
  • Cohen, D. D., C. Voss, M. J. D. Taylor, A. Delextrat, A. A. Ogunleye, and G. R. H. Sandercock, 2011, “Ten-year secular changes in muscular fitness in English children,” Acta Paediatrica, 100(10): e175–
  • Danielson, P., 1998,Modeling Rationality, Morality, and Evolution, Oxford: Oxford University Press.
  • Dabringer, G., (ed.) 2010,Ethica Themen: Ethical and Legal Aspects of Unmanned Systems, Interviews, Vienna, Austria: Austrian Ministry of Defence and Sports. [available online]
  • Denning, D., 2008, “The Ethics of Cyber Conflict,” In Himma and Tavanni 2008.
  • Dodig-Crnkovic, G., Hofkirchner, W., 2011, “Floridi’s ‘Open Problems in Philosophy of Information’, Ten Years Later,” Information, (2): 327– [available online]
  • Edgar, S.L., 2003,Morality and Machines, Sudbury Massachusetts: Jones and Bartlett.
  • Epstein, R., 2007, “The Impact of Computer Security Concerns on Software Development,” in Himma 2007a, pp. 171–
  • Epstein, L.S. 1980. “Decision-making and the temporal resolution of uncertainty”.International Economic Review 21 (2): 269–
  • Ess, C., 2009,Digital Media Ethics, Massachusetts: Polity Press.
  • Facebook, Inc., 2012,Form S-1: Registration Statement, filed with the United States Securities and Exchange Commission, Washington, DC, available online.
  • Floridi, L., 1999, “Information Ethics: On the Theoretical Foundations of Computer Ethics”,Ethics and Information Technology, 1(1): 37–
  • –––, 2002, “What is the Philosophy of Information?” inMetaphilosophy, 33(1/2): 123–
  • –––, 2003, “On the Intrinsic Value of Information Objects and the Infosphere,” Ethics and Information Technology, 4(4): 287–
  • –––, 2004,The Blackwell Guide to the Philosophy of Computing and Information, Blackwell Publishing.
  • ––– (ed.), 2010a,The Cambridge Handbook of Information and Computer Ethics, Cambridge: Cambridge University Press.
  • –––, 2010b,Information: A Very Short Introduction, Oxford: Oxford University Press.
  • –––, 2011a, “Enveloping the World for AI,” The Philosophers Magazine, 54: 20–21
  • –––, 2011b,The Philosophy of Information, Oxford: Oxford University Press.
  • –––, 2016, “Should We be Afraid of AI?”, Neigel Warburton (ed.),Aeon, 09 May 2016, available online.
  • Floridi, L. and J. W. Sanders, 1999, “Entropy as Evil in Information Ethics,” Etica & Politica, special issue on Computer Ethics, I(2). [available online]
  • –––, 2001, “Artificial evil and the foundation of computer ethics,” in Ethics and Information Technology, 3(1): 55– [available online]
  • –––, 2004, “On the Morality of Artificial Agents,” inMinds and Machines, 14(3): 349–379 [available online]
  • Furguson, C. J., 2007, “The Good The Bad and the Ugly: A Meta-analytic Review of Positive and Negative Effects of Violent Video Games,” Psychiatric Quarterly, 78(4): 309–
  • Gelernter, D., 2007, “Artificial Intelligence Is Lost in the Woods,” Technology Review, July/August, pp. 62– [available online]
  • Gibba, G. D., J. R. Baileya, T. T. Lambirtha, and W. Wilsona, 1983, “Personality Differences Between High and Low Electronic Video Game Users,” The Journal of Psychology, 114(2): 159–
  • Grim, P., 2004, “Computational Modeling as a Philosophical Methodology,” In Floridi 2004.
  • Grim, P., G. Mar, and P. St. Denis, 1998,The Philosophical Computer: Exploratory Essays in Philosophical Computer Modeling, MIT Press.
  • Grodzinsky, F. S. and H. T. Tavani, 2002, “Ethical Reflections on Cyberstalking,” Computers and Society, 32(1): 22–
  • Hansen, R. and J. Grossman, 2008, “Clickjacking,” SecTheory: Internet Security. [available online]
  • Hickman, L. A. 1990,John Deweys Pragmatic Technology, Bloomington, Indiana: Indiana University Press.
  • Himma, K. E. (ed.), 2007a,Internet Security, Hacking, Counterhacking, and Society, Sudbury Massachusetts: Jones and Bartlett Publishers.
  • Himma, K. E., 2007b, “Hacking as Politically Motivated Digital Civil Disobedience: Is Hacktivisim Morally Justified?” In Himma 2007a, pp. 73–
  • Himma, K. E., and H. T. Tavanni (eds.), 2008,The Handbook of Information and Computer Ethics, Wiley-Interscience; 1st edition
  • Hongladarom, S., 2008, “Privacy, Contingency, Identity and the Group,”Handbook of Research on Technoethics. Vol. II, R. Luppicini and Rebecca Adell Eds. Hershey, PA: IGI Global, pp. 496–
  • IEEE 2018, “Ethically Aligned Design: The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems”,IEEE [available online ]
  • Ivory, J. D., 2006, “Still a Man’s Game: Gender Representation in Online Reviews of Video Games,” Mass Communication and Society, 9(1): 103–
  • Johansson, M., 2009, “Why unreal punishments in response to unreal crimes might actually be a really good thing,” Ethics and Information Technology, 11(1): 71–79
  • Johnson, D.G., 1985,Computer Ethics, Englewood Cliffs, New Jersey: Prentice Hall. (2nd , 1994; 3rd ed., 2001; 4th ed., 2009).
  • Johnson D. G., and T. Powers, 2008, “Computers and Surrogate Agents,” In van den Hoven and Weckert 2008.
  • Jones, T., 2011, “Techno-toddlers: A is for Apple,” The Guardian, Friday November 18. [available online]
  • Kaspersky Lab, 2017,Kaspersky Security Bulletin: KASPERSKY LAB THREAT PREDICTIONS FOR 2018,Moscow, Russia: Kaspersky Lab ZAO. [available online]
  • Keen, A., 2011, “Your Life Torn Open, Essay 1: Sharing is a trap,” Wired, 03 Feb 2011,available online.
  • Kurzweil, R., 2006,The Singularity is Near, New York: Penguin Press.
  • Langton, C. G., (ed.), 1989,Artificial Life: the Proceedings of an Interdisciplinary Workshop on the Synthesis and Simulation of Living Systems, Redwood City: Addison-Wesley.
  • Ledin G., 2005, “Not Teaching Viruses and Worms is Harmful” Communications of the ACM, 48(1): 144.
  • Lessig, L., 1999,Code and Other Values of Cyberspace, New York: Basic Books.
  • Levy, S., 1984,Hackers: Heroes of the Computer Revolution, New York: Anchor Press.
  • Lin P., 2010, “Ethical Blowback from Emerging Technologies”,Journal of Military Ethics, 9(4): 313–
  • Lin, P., K. Abney, and R. Jenkins, 2017,Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, Oxford: Oxford University Press.
  • Lin, P., K. Abney, and G. Bekey, 2012,Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, MA: MIT Press.
  • –––2013, “Ethics, War, and Robots”,Ethics and Emerging Technologies, London: Palgrave–
  • Lin, P., G. Bekey, and K. Abney, 2008,Autonomous Military Robotics: Risk, Ethics, and Design, Washington, DC: U.S. Department of the Navy, Office of Naval Research. [available online]
  • Lovely, E., 2010, “Cyberattacks explode in Congress,” Politico, March 5, 2010. [available online]
  • Lü, Yao-Hui, 2005, “Privacy and Data Privacy Issues in Contemporary China,” Ethics and Information Technology, 7(1): 7–15
  • Ludlow, P. and M. Wallace, 2007,The Second Life Herald: The Virtual Tabloid that Witnessed the Dawn of the Metaverse, Cambridge, MA: MIT Press.
  • Luck, M., 2009, “The gamer’s dilemma: An analysis of the arguments for the moral distinction between virtual murder and virtual paedophilia,” Ethics and Information Technology, 11(1): 31–
  • Luppicini, R. and R. Adell (eds.), 2009,Handbook of Research on Technoethics, Idea Group Inc. (IGI).
  • Magnani, L., 2007, Morality in a Technological World: Knowledge as Duty, Cambridge, Cambridge University Press.
  • Mason, R. O., 1986, Four ethical issues of the information age.MIS Quarterly, 10(1): 5–
  • Markoff, J., 2005,What the Dormouse Said: How the 60s Counterculture Shaped the Personal Computer Industry, New York: Penguin.
  • Manion, M. and A. Goodrum, 2007, “Terrorism or Civil Disobedience: Toward a Hacktivist Ethic,” in Himma 2007a, pp. 49–
  • McAfee, 2018,Economic Impact of Cybercrime: No Slowing Down, Report [available online]
  • McMahon, J. M. and R. Cohen, 2009, “Lost in cyberspace: ethical decision making in the online environment,” Ethics and Information technology, 11(1): 1–
  • Midgley, M., 1992,Science as Salvation: a modern myth and its meaning, London: Routledge.
  • Moor, J. H., 1985, “What is Computer Ethics?” Metaphilosophy, 16(4): 266–
  • –––, 2005, “Why We Need Better Ethics for Emerging Technologies,” Ethics and Information Technology, 7(3): 111– Reprinted in van den Hoven and Weckert 2008, pp. 26–39.
  • Moore, Gordon E. 1965. “Cramming more components onto integrated circuits”.Electronics, 38(8): 114– [available online]
  • Neumann, P. G., 2004, “Computer security and human values,” ComputerEthics and Professional Responsibility, Malden, MA: Blackwell
  • Nissenbaum, H., 1997. “Toward an Approach to Privacy in Public: Challenges of Information Technology,” Ethics and Behavior, 7(3): 207– [available online]
  • –––, 1998. “Values in the Design of Computer Systems,” Computers and Society, March: pp. 38– [available online]
  • –––, 1999, “The Meaning of Anonymity in an Information Age,” The Information Society, 15: 141–
  • –––, 2009,Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford Law Books: Stanford University Press.
  • Northcutt, S. and C. Madden, 2004,IT Ethics Handbook: Right and Wrong for IT Professionals, Syngress.
  • O’Neil, O., 2002, “Trust is the first casualty of the cult of transparency,” The Telegraph, 24 April,available online.
  • O’Reilly, T., 2007 [2005], “What is Web 2.0: Design Patterns and Business Models for the Next Generation of Software,” Communications & Strategies, 65(1): 17–37;available online. [The earlier, 2005 version, is linked into the Other Internet Resources section below.]
  • Parrish, J., 2010, “PAPA knows best: Principles for the ethical sharing of information on social networking sites,” Ethics and Information Technology, 12(2): 187–
  • Pettit, P., 2009, “Trust, Reliance, and the Internet,” In van den Hoven and Weckert 2008.
  • Plaw, A. 2013, “Counting the Dead: The Proportionality of Predation in Pakistan,” In Strawser 2013.
  • Planned Parenthood, 2017, “New Study Shows Virtual Reality Can Move People’s Views on Abortion and Clinic Harassment,” [available online]
  • Plato, “Phaederus,” inPlato: The Collected Dialogues, E. Hamilton and H. Cairns (eds.), Princeton: Princeton University Press, pp. 475–
  • Poushter J., 2016, “Smartphone Ownership and Internet Usage Continues to Climb in Emerging Economies: But advanced economies still have higher rates of technology use,” Pew Research Center, 22 February 2018 [available online]
  • Powers, T., 2011, “Prospects for a Kantian Machine,” in Anderson and Anderson 2011.
  • Purcell, M., 2008, “Pernicious virtual communities: Identity, polarisation and the Web 2.0,” Ethics and Information Technology, 10(1): 41–
  • Reynolds, G., 2009,Ethics in Information Technology, (3rd ), Course Technology.
  • Russell, S. and P. Norvig, 2010,Artificial Intelligence: A Modern Approach, (3rd ), Massachusetts: Prentice Hall.
  • Schmidt, C. T. A., 2007, “Children, Robots and… the Parental Role,” 17(3): 273–
  • Schulzke, M., 2010, “Defending the Morality of Violent Video Games,” Ethics and Information Technology, 12(2): 127
  • Searle, J., 1980, “Minds, Brains, and Programs,” Behavioral and Brain Sciences, 3: 417–
  • Shannon, C.E., 1948, “A Mathematical Theory of Communication”,Bell System Technical Journal, 27(July, October): 379–423, 623– [available online]
  • Shannon, C. E. and W. Weaver, 1949,The Mathematical Theory of Communication, University of Illinois Press.
  • Sharkey, N.E. 2011, “The automation and proliferation of military drones and the protection of civilians,” Journal of Law, Innovation and Technology, 3(2): 229–
  • Singer, P. W., 2009,Wired for War:The Robotics Revolution and Conflict in the 21st Century, Penguin (Non-Classics); Reprint edition.
  • Siraj-Blatchford, J., 2010, “Analysis: ‘Computers Benefit Children’,” Nursery World, October 6. [available online]
  • Soukup, C., 2007, “Mastering the Game: Gender and the Entelechial Motivational System of Video Games,” Womens Studies in Communication, 30(2): 157–
  • Søraker, Johnny Hartz, 2012, “How Shall I Compare Thee? Comparing the Prudential Value of Actual Virtual Friendship,” Ethics and Information technology, 14(3): 209– doi:10.1007/s10676-012-9294-x [available online]
  • Spafford, E.H., 1992, “Are computer hacker break-ins ethical?” Journal of Systems and Software17(1):41–
  • –––, 2007, “Are Computer Hacker Break-ins Ethical?” in Himma 2007a, pp. 49–
  • Spinello, R. A., 2001,Cyberethics, Sudbury, MA: Jones and Bartlett Publishers. (2nd ed., 2003; 3rd , 2006; 4th ed., 2010).
  • –––, 2002,Case Studies in Information Technology Ethics, Prentice Hall. (2nd ).
  • Sprenger P., 1999, “Sun on Privacy: ‘Get Over It’,” Wired, January 26, 1999. [available online]
  • Statista, 2018, “Number of social media users worldwide from 2010 to 2021 (in billions)”, [available online].
  • Strawser, B.J., 2013,Killing by Remorte Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press.
  • Sullins, J. P., 2000, “Transcending the meat: immersive technologies and computer mediated bodies,” Journal of Experimental and Theoretical Artificial Intelligence, 12(1): 13–
  • –––, 2005, “Ethics and Artificial life: From Modeling to Moral Agents,” Ethics and Information technology, 7(3): 139– [available online]
  • –––, 2006, “When Is a Robot a Moral Agent?” International Review of Information Ethics, 6(12): 23– [available online]
  • –––, 2009a, “Artificial Moral Agency in Technoethics,” in Luppicini and Adell 2009.
  • –––, 2009b, “Telerobotic weapons systems and the ethical conduct of war,” APA Newsletter on Philosophy and Computers, P. Boltuc (ed.) 8(2): 21.
  • –––, 2010, “Rights and Computer Ethics,” in Floridi 2010a.
  • –––, forthcoming, “Deception and Virtue in Robotic and Cyber Warfare,” Presentation for the Workshop on The Ethics of Informational Warfare, at University of Hertfordhire, UK, July 1–2 2011
  • Symantec, 2018, Internet Security Threat Report (ISTR),Symantec Security Response, [available online]
  • Tavani, H. T., 2007, “The Conceptual and Moral Landscape of Computer Security,” in Himma 2007a, pp. 29–
  • –––, 2010,Ethics and Technology: Controversies, Questions, and Strategies for Ethical Computing, (3rd ), Wiley.
  • Tavani, H. and J. Moor, 2004, “Privacy Protection, Control of Information, and Privacy-Enhancing Technologies,” inReadings in Cyberethics, second edition, Spinello, R. and Tavani, H. (eds.), Sudsbury: Jones and Bartlett.
  • Taylor, N., J. Jensona, and S. de Castellb, 2009. “Cheerleaders/booth babes/ Halo hoes: pro-gaming, gender and jobs for the boys,” Digital Creativity, 20(4): 239–
  • Turing, A. M., 1948, “Machine Intelligence”, in B. Jack Copeland,The Essential Turing: The ideas that gave birth to the computer age, Oxford: Oxford University Press.
  • –––, 1950, “Computing Machinery and Intelligence”,Mind, 59(236): 433– doi:10.1093/mind/LIX.236.433
  • Vallor, S., 2010, “Social Networking Technology and the Virtues,” Ethics and Information Technology, 12(2, Jan. 6): 157–
  • –––, 2011, “Flourishing on Facebook: Virtue Friendship and New Social Media,” Ethics and Information technology, 1388–1957, pp. 1–15, Netherlands: Springer.
  • –––, 2016,Technology and the Virtues: A Philosophical Guide to a Future worth Wanting, Oxford: Oxford University Press.
  • Van den Hoven, J. and J. Weckert (eds), 2008,Information Technology and Moral Philosophy, Cambridge: Cambridge University Press.
  • Von Neumann, J., 1966,Theory of Self Reproducing Automata, edited and completed by A. Burks, Urbana-Champaign: University of Illinois Press.
  • Wallach, W., 2011. From Robots to Techno Sapiens: Ethics, Law and Public Policy in the Development of Robotics and Neurotechnologies,Law, Innovation and Technology, 3(2): 185–
  • Wallach, W. and C. Allen, 2010,Moral Machines: Teaching Robots Right from Wrong, Oxford: Oxford University Press.
  • Warschauer, M., 2003,Technology and Social Inclusion: Rethinking the Digital Divide, Cambridge: MIT Press.
  • Weckert, John, 2007, “Giving and Taking Offence in a Global Context,” International Journal of Technology and Human Interaction, 3(3): 25–
  • Westin, A., 1967,Privacy and Freedom, New York: Atheneum.
  • Wiener, N., 1950,The Human Use of Human Beings, Cambridge, MA: The Riverside Press (Houghton Mifflin Co.).
  • –––, 1961,Cybernetics: Or Control and Communication in the Animal and the Machine, 2nd revised ed., Cambridge: MIT Press. First edition, 1948.
  • Woodbury, M. C., 2010,Computer and Information Ethics, 2nd edition; 1st edition, 2003, Champaign, IL: Stipes Publishing LLC.

 


أدوات أكاديمية

 

How to cite this entry.

 

Preview the PDF version of this entry at the Friends of the SEP Society.

 

Look up this entry topic at the Internet Philosophy Ontology Project (InPhO).

 

Enhanced bibliography for this entry at PhilPapers, with links to its database.

 

 


مصادر أخرى على الإنترنت


مداخل ذات صلة

Aristotle, General Topics: ethics | artificial intelligence: logic and | computing: and moral responsibility | فلسفة جون ديوي السياسية | ethics, biomedical: theory | evil: problem of | information technology: phenomenological approaches to ethics and | life | pornography: and censorship | property: intellectual | Turing test


[1] Sullins, John, “Information Technology and Moral Values”, The Stanford Encyclopedia of Philosophy (Winter 2020 Edition), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/win2020/entries/it-moral-values/>.