الخصوصية وتكنولوجيا المعلومات – موسوعة ستانفورد للفلسفة / ترجمة: عبد الله بن ناصر الشبيلي


حول الخصوصية وتكنولوجيا المعلومات وأثرها على الخصوصية، خصوصا في ظل التطور التكنولوجي الرهيب الذي نعيشه اليوم؛ نص مترجم لد. جيروين فان دن هوفن Jeroen van den Hoven ، مارتين بلاو Martijn Blaauw ، وولتر بيترس Wolter Pieters ، مارتين وارنييه Martijn Warnier ، ومنشور على (موسوعة ستانفورد للفلسفة). ننوه بأن الترجمة هي للنسخة المؤرشفة في الموسوعة على هذا الرابط، والتي قد تختلف قليلًا عن النسخة الدارجة للمقالة، حيث أنه قد يطرأ على الأخيرة بعض التحديث أو التعديل من فينة لأخرى منذ تتمة هذه الترجمة. وختامًا، نخصّ بالشكر محرري موسوعة ستانفورد، وعلى رأسهم د. إدوارد زالتا، على تعاونهم، واعتمادهم للترجمة والنشر على مجلة حكمة.


يقدر البشر خصوصياتهم وحماية نطاق حياتهم الشخصية، ويهتمون بوجود قدرٍ من السيطرة بشأن من يعرف وماذا يعرف، فمن المؤكد أنهم لا يريدون أن تكون معلوماتهم الشخصية متاحة لأي شخص وفي أي وقت، إلا أن التطورات الحديثة في مجال تكنولوجيا المعلومات باتت تهدد الخصوصية وتقلل من مقدار السيطرة على البيانات الشخصية وتفتح المجال أمام إمكانية حدوث مجموعة من العواقب السلبية نتيجة الوصول إلى تلك البيانات. وقد شهد النصف الثاني من القرن العشرين وضع نظم لحماية البيانات، وذلك استجابة لزيادة مستويات معالجة البيانات الشخصية، وأصبح القرن الحادي والعشرون قرن البيانات الضخمة وتكنولوجيا المعلومات المتقدمة (مثل أشكال التعلم العميق)، فضلًا عن ظهور شركات التكنولوجيا العملاقة واقتصاد المنصات الرقمية، الذي يتزامن مع تخزين بيانات بحجم الإكسابايت ومعالجتها.

وقد أظهرت تسريبات إدوارد سنودن، وكذلك الفضيحة التي حدثت مؤخرًا لشركة كامبريدج أناليتيكا Cambridge Analytica (Cadwalladr & Graham-Harrison 2018) أن المخاوف بشأن العواقب السلبية حقيقية، نظرًا لأن القدرات التقنية لجمع وتخزين كميات كبيرة من البيانات المتعلقة بالمحادثات الهاتفية وعمليات البحث على الإنترنت والدفع الإلكتروني أصبحت متاحة، وتُستخدم بشكل روتيني بواسطة الوكالات الحكومية والجهات التابعة للشركات على حد سواء. كما أن صعود الصين وانتشار التكنولوجيا الرقمية المتطورة للمراقبة واتساع نطاق استخدامها قد أدى إلى زيادة قلق الكثيرين. علاوة على ذلك، فإن البيانات الشخصية عن العملاء الحاليين والمحتملين أصبحت تُعد أحد الأصول الرئيسية للشركات التجارية، وقد وصف شوشانا زوبوف Shoshana Zuboff  (2018) بالتفصيل النطاق والغرض من نماذج الأعمال التجارية لشركات التكنولوجيا العملاقة المرتكزة على البيانات الشخصية (جوجل، أمازون، فيسبوك، مايكروسوفت، أبل) تحت مسمى “رأسمالية المراقبة”.

وفي الوقت نفسه، يظل معنى الخصوصية وقيمتها موضع جدل كبير، إذ إن الجمع بين القوة المتزايدة للتكنولوجيا الحديثة والتدهور الحاصل في مسألتي الوضوح والتوافق بشأن الخصوصية يؤدي إلى ظهور مشاكل متعلقة بالقانون والسياسة والأخلاق. وتندرج العديد من هذه النقاشات والقضايا المفاهيمية في سياق تفسير وتحليل اللائحة العامة لحماية البيانات General Data Protection Regulation (GDPR) التي اعتمدها الاتحاد الأوروبي في ربيع عام 2018 لتحل محل توجيهاته الصادرة عام 1995، مع تطبيقها خارج حدود الاتحاد الأوروبي.

تركز هذه المقالة على استكشاف العلاقة بين تكنولوجيا المعلومات و الخصوصية، حيث سنوضح التهديدات المحددة التي تشكلها تكنولوجيا المعلومات وابتكاراتها على الخصوصية، وسنشير إلى الكيفية التي يمكن أن تتغلب بها تكنولوجيا المعلومات بنفسها على تلك المخاوف المتعلقة بـ الخصوصية من خلال تطويرها لطرق يمكن تسميتها “حساسة للخصوصية” أو “تعزيز الخصوصية” أو “احترام الخصوصية”. كما سنتناول دور التقنيات الناشئة في النقاش، مع توضيح كيفية تأثر النقاشات الأخلاقية ذاتها بتكنولوجيا المعلومات.

 

  1. مفاهيم الخصوصية وقيمة الخصوصية

  2. 1 الخصوصية الدستورية مقابل الخصوصية المعلوماتية

  3. 2 الآراء المتعلقة بقيمة الخصوصية

  4. 3 البيانات الشخصية

  5. 4 الأسباب الأخلاقية لحماية البيانات الشخصية

  6. 5 القانون والتشريع والتحكم غير المباشر في إمكانية الوصول

  7. أثر تكنولوجيا المعلومات على الخصوصية

  8. 1 التطورات في مجال تكنولوجيا المعلومات

  9. 2 الإنترنت

  10. 3 وسائل التواصل الاجتماعي

  11. 4 البيانات الضخمة

  12. 5 الأجهزة المحمولة

  13. 6 إنترنت الأشياء

  14. 7 الحكومة الإلكترونية

  15. 8 المراقبة

  16. كيف يمكن لتكنولوجيا المعلومات أن تتغلب بنفسها على مخاوف الخصوصية؟

  17. 1 أساليب التصميم

  18. 2 تقنيات تعزيز الخصوصية

  19. 3 التشفير

  20. 4 إدارة الهوية

  21. التقنيات الناشئة وفهمنا للخصوصية

  • المراجع

  • أدوات أكاديمية

  • مصادر أخرى على الإنترنت

  • مداخل ذات صلة


1. مفاهيم الخصوصية وقيمة الخصوصية

تتشابك النقاشات حول الخصوصية مع استخدام التكنولوجيا، ويُعد المقال الذي بدأ الجدل حول الخصوصية في العالم الغربي أحد نتائج ظهور مطابع الصحف والتصوير الفوتوغرافي، فقد كتب صامويل وارن ولويس برانديز Samuel D. Warren & Louis Brandeis  مقالهما عن الخصوصية في مجلة هارفارد للقانون (Warren & Brandeis 1890) كنوع من الاحتجاج الجزئي على الأنشطة التطفلية للصحفيين في تلك الأيام، وجادلا بامتلاك الفرد “الحق في أن يترك وشأنه” بناءً على مبدأ “الشخصية المصونة”. ومنذ نشر ذلك المقال، تأجج النقاش حول الخصوصية عن طريق المطالبات المتعلقة بحق الأفراد في تحديد مدى إمكانية وصول الآخرين إليهم (Westin 1967) والمطالبات المتعلقة بحق المجتمع في معرفة الأفراد. ونظراً لكون المعلومات حجر الزاوية في الوصول إلى الأفراد، فقد تطور النقاش حول الخصوصية بشكل مشترك مع تطور تكنولوجيا المعلومات، واستجابة لها. ولذا من الصعب تصور مفاهيم الخصوصية والنقاشات المتعلقة بحماية البيانات على أنها منفصلة عن الطريقة التي تطورت بها الحواسيب وشبكة الإنترنت والحوسبة المتنقلة والعديد من تطبيقات تلك التقنيات الأساسية.

1. 1 الخصوصية الدستورية مقابل الخصوصية المعلوماتية

بإلهام من التطورات اللاحقة في القانون الأميركي، أصبح من الممكن التمييز بين (1) الخصوصية الدستورية (أو القرارية) (2) و الخصوصية التقصيرية (أو المعلوماتية) (DeCew 1997)، إذ يشير المصطلح الأول إلى حرية اتخاذ الفرد للقرارات دون تدخل الآخرين فيما يتعلق بالمسائل التي تعتبر حميمة وشخصية، مثل قرار استخدام وسائل منع الحمل أو الإجهاض، بينما يتعلق المصطلح الثاني باهتمام الأفراد بفرض سيطرتهم على الوصول إلى المعلومات المرتبطة بهم، وغالباً ما يشار إليه باسم “الخصوصية المعلوماتية”. فكر هنا، على سبيل المثال، بالمعلومات التي يتم الكشف عنها على فيسبوك أو وسائل التواصل الاجتماعي الأخرى، فجميعها يسهل الوصول إليها وقد تكون تلك المعلومات خارجة عن سيطرة الفرد.

يمكن أن تكون البيانات المتعلقة بـ الخصوصية إما وصفية أو معيارية، اعتمادًا على ما إذا كانت تستخدم لوصف الطريقة التي يحدد بها الناس حالات الخصوصية وشروطها وطريقة تقييمهم لها، أو تستخدم للإشارة إلى أنه يجب أن تكون هناك قيود على استخدام المعلومات أو معالجتها. إن هذه الشروط أو القيود تتضمن عادة المعلومات الشخصية المتعلقة بالأفراد، أو طرق معالجة المعلومات التي قد تؤثر على الأفراد. وتشير الخصوصية المعلوماتية بالمعنى المعياري إلى الحق الأخلاقي غير المطلق للأشخاص في أن تكون لهم سيطرة مباشرة أو غير مباشرة على إمكانية الوصول إلى (1) معلوماتهم الشخصية، (2) الحالات التي يمكن فيها للآخرين الحصول على تلك المعلومات، و(3) التكنولوجيا التي يمكن استخدامها لتوليد تلك المعلومات أو معالجتها أو نشرها.

 

1. 2 الآراء المتعلقة بقيمة الخصوصية

تدور النقاشات عن الخصوصية دائمًا حول التكنولوجيا الحديثة، بدءًا من علم الوراثة والدراسة المستفيضة للمؤشرات البيولوجية، وتصوير الدماغ، والطائرات المسيرة، وأجهزة الاستشعار القابلة للارتداء، وشبكات الاستشعار، مرورًا بوسائل التواصل الاجتماعي، والهواتف الذكية، والدوائر التلفزيونية المغلقة، وبرامج الأمن السيبراني الحكومية، والتسويق المباشر، وبطاقات كشف ترددات الراديوRFID ، والبيانات الضخمة، وأجهزة العرض المثبتة على الرأس، ومحركات البحث. وتنقسم ردود الفعل على طوفان التكنولوجيا الحديثة وتأثيرها على المعلومات الشخصية و الخصوصية إلى قسمين أساسيين؛ يكمن الأول في رد الفعل الذي يحمله العديد من العاملين في مجال تكنولوجيا المعلومات وفي البحث والتطوير، بأننا لا نمتلك أي خصوصية في ظل العصر الرقمي ولا توجد طريقة تمكننا من حمايتها، لذلك يجب أن نعتاد على العالم الجديد ونتجاوز الأمر (Sprenger 1999)، بينما يتمثل رد الفعل الثاني في أن خصوصيتنا أصبحت أكثر أهمية من أي وقت مضى وأن بإمكاننا، بل ويجب علينا، أن نسعى لحمايتها.

وتتضمن الأدبيات حول الخصوصية العديد من الآراء المتضاربة حول طبيعة الخصوصية وقيمتها (Negley 1966, Rössler 2005)؛ على الجانب الأول، يجادل أصحاب وجهات النظر الاختزالية بأن مطالبات الخصوصية تتعلق فعليًا بقيم وأمور أخرى مهمة من الناحية الأخلاقية. ووفقاً لهذه الآراء، فإن قيمة الخصوصية هي اختزال لتلك القيم أو المصادر الأخلاقية الأخرى (Thomson 1975). وتشير المقترحات التي تم الدفاع عنها خلال الأسطر السابقة إلى حقوق الملكية، والأمن، والاستقلالية، والألفة أو الصداقة، والديمقراطية، والحرية، والكرامة، والمنفعة والقيمة الاقتصادية. وترى وجهات النظر الاختزالية ضرورة توضيح أهمية الخصوصية وتوضيح معناها فيما يتعلق بتلك القيم والمصادر الأخلاقية (Westin 1967). ويرى أصحاب الرأي المُعارض أنّ الخصوصية تمثل قيمة في حدّ ذاتها، وأن قيمتها وأهميتها لا تُستمدّ من اعتبارات أخرى (انظر للنقاش Rössler 2004)، ويمكن للآراء التي تنظر إلى الخصوصية ونطاق الحياة الشخصية على أنهما حق من حقوق الإنسان أن تكون مثالًا لهذا المفهوم غير الاختزالي.

وقد اقتُرحت مؤخرًا رؤية لمسألة الخصوصية متعلقة بتكنولوجيا المعلومات الجديدة، حيث تعترف بوجود مجموعة من المطالبات الأخلاقية المتصلة تكمن وراء النداءات إلى الخصوصية، ولكنها تؤكد أنه لا يوجد جوهر أساسي واحد للمخاوف المتعلقة بـ الخصوصية، ويُشار إلى هذا النهج باسم التفسيرات المترابطة أو العقدية cluster accounts (DeCew 1997; Solove 2006; van den Hoven 1999; Allen 2011; Nissenbaum 2004).

ومن المنظور الوصفي، توجد إضافة أخرى حديثة إلى مجموعة التفسيرات والرؤى حول الخصوصية وتتمثل في التفسيرات المعرفية، حيث يتم تحليل مفهوم الخصوصية بشكل أساسي من ناحية الدراية أو الحالات المعرفية الأخرى، فأن تتمتع بـ الخصوصية يعني أن الآخرين لا يعرفون بعض القضايا الخاصة؛ في حين أن الافتقار إلى الخصوصية يعني أن الآخرين يعرفون بالفعل بعض القضايا الخاصة (Blaauw 2013). ومن الجوانب المهمة لمفهوم التمتع بـ الخصوصية هو أن يُنظر إليه على أنه علاقة (Rubel 2011; Matheson 2007; Blaauw 2013) مع ثلاثة حجج: الفاعل subject (S)، ومجموعة من القضايا propositions (P)، ومجموعة من الأفراد individuals (I). ويُقصد بالفاعل (S) الشخص الذي لديه (درجة معينة من) الخصوصية، وترمز (P) إلى تلك القضايا التي يريد الشخص أن يحافظ على خصوصيتها (ويُطلق على قضايا هذه المجموعة ‘القضايا الشخصية’)، بينما تشير (I) إلى أولئك الأفراد الذين يريد الفاعل (S) أن يشاركهم قضاياه الشخصية ويحافظ على خصوصيتها.

ومن المفيد أيضًا التمييز بين النهج الأوروبي والأميركي، حيث تشير دراسة ببليوميترية إلى أن النهجين منفصلين في الأدبيات، إذ يصور الأول قضايا الخصوصية المعلوماتية من حيث “حماية البيانات”، بينما يصورها الثاني من حيث “الخصوصية” (Heersmink et al. 2011). وتبرز فائدة مفهوم حماية البيانات عند مناقشة العلاقة بين مسائل الخصوصية والتكنولوجيا، نظرًا لأنه يقود إلى تكوين صورة واضحة نسبياً عن الغرض من الحماية، وأي الوسائل التقنية التي يمكن بها حماية البيانات. وفي الوقت نفسه، فإن هذا المفهوم يدعو إلى تقديم إجابات عن السؤال حول سبب وجوب حماية البيانات، مشيراً إلى عدد من الأسس الأخلاقية المميزة التي يمكن على أساسها تبرير الحماية التقنية والقانونية والمؤسسية للبيانات الشخصية، وبالتالي تُعاد صياغة الخصوصية المعلوماتية من حيث حماية البيانات الشخصية (van den Hoven 2008). ويوضح هذا التفسير كيف ترتبط الخصوصية والتكنولوجيا وحماية البيانات، دون الخلط بين الخصوصية وحماية البيانات.

 

1. 3 البيانات الشخصية

يمكن تعريف المعلومات أو البيانات الشخصية على أنها تلك المعلومات أو البيانات المرتبطة بالأفراد أو يمكن ربطها بهم. وتشمل الأمثلة على ذلك السمات المعلنة صراحة مثل تاريخ ميلاد الشخص، وميوله الجنسية، ومكان وجوده، وديانته، بل وتشمل أيضًا عنوان بروتوكول الإنترنت (IP) لحاسوبك أو البيانات الوصفية المتعلقة بهذه الأنواع من المعلومات. علاوة على ذلك، يمكن أن تكون البيانات الشخصية ضمنية أكثر، وتكون على شكل بيانات سلوكية يمكن ربطها بالأفراد، مثل البيانات الموجودة بوسائل التواصل الاجتماعي. كما يمكن مقارنة البيانات الشخصية مع البيانات التي تعتبر حساسة أو قيمة أو مهمة لأسباب أخرى، مثل الوصفات السرية، أو البيانات المالية، أو الاستخبارات العسكرية. وتجدر الإشارة إلى أن البيانات المستخدمة لتأمين المعلومات الأخرى، مثل كلمات المرور، غير مأخوذة بعين الاعتبار هنا، فعلى الرغم من أن هذه التدابير الأمنية (كلمات السر) قد تسهم في الخصوصية، فإن حمايتها ليست سوى وسيلة لحماية المعلومات الأخرى (الأكثر خصوصية)، وبالتالي فإن نوعية هذه التدابير الأمنية خارجة عن نطاق اعتباراتنا.

لقد تضمنت الدلالات الفلسفية تمييزًا بين الاستخدام المرجعي referential use والاستخدام الدلالي attributive use  للتسميات الوصفية للأشخاص (van den Hoven 2008)، وتُعرف البيانات الشخصية في القانون على أنها بيانات يمكن ربطها بشخص طبيعي، حيث توجد طريقتان يمكن من خلالهما تكوين هذا الرابط؛ هما الوضع المرجعي والوضع غير المرجعي. ويهتم القانون في المقام الأول بالـ “الاستخدام المرجعي” للأوصاف أو السمات، وهو نوع الاستخدام الذي يتم على أساس علاقة المعرفة (المحتملة) بين المتحدث والموضوع محل النقاش. ومثال الاستخدام المرجعي للوصف أن يقول شخص “لابد أن قاتل كينيدي مجنون”، وذلك أثناء إشارته إلى القاتل داخل المحكمة. ويمكن لهذا النوع أن يتناقض مع الأوصاف المستخدمة بشكل دلالي، كأن يقول شخص “لابد أن قاتل كينيدي مجنون، أيًا يكن قاتله”، لأن مستخدم الوصف في هذه الحالة قد لا تكون لديه معرفة – حالية أو مستقبلية – بالشخص الذي يتحدث عنه أو ينوي الإشارة إليه. وإذا فُسر التعريف القانوني للبيانات الشخصية بشكل مرجعي، فإن الكثير من البيانات التي قد تؤثر في وقت ما على الأشخاص ستكون غير محمية؛ أي أن معالجة هذه البيانات لن تكون مقيدة على أسس أخلاقية تتعلق بـ الخصوصية أو نطاق الحياة الشخصية، لأنها لا “تشير” إلى الأشخاص مباشرة، وبالتالي فإن تلك البيانات لا تُعد “بيانات شخصية” بالمعنى الدقيق للكلمة.

 

1. 4 الأسباب الأخلاقية لحماية البيانات الشخصية

يمكن تمييز الأنواع التالية من الأسباب الأخلاقية لحماية البيانات الشخصية ولتوفير التحكم المباشر أو غير المباشر في الوصول إلى تلك البيانات من قبل الآخرين (van den Hoven 2008) على النحو التالي:

  1. منع الضرر: يمكن للآخرين استخدام الوصول غير المقيد إلى الحسابات المصرفية، والملفات التعريفية، وحسابات وسائل التواصل الاجتماعي، والمستودعات السحابية، والسمات الشخصية، وأماكن التواجد للإضرار بصاحب البيانات بعدة طرق.

  2. عدم المساواة المعلوماتية: أصبحت البيانات الشخصية تُعامل كسلع، وعادة لا يكون الأفراد في وضع جيد للتفاوض بشأن العقود المتعلقة باستخدام بياناتهم، وليس لديهم الوسائل للتحقق مما إذا كان الشركاء ملتزمون بشروط العقد. وتهدف قوانين حماية البيانات واللوائح والحوكمة إلى وضع شروط عادلة لصياغة العقود المتعلقة بنقل البيانات الشخصية وتبادلها، وتزويد الأشخاص المعنيين بالضوابط والموازين، وضمانات التعويض ووسائل مراقبة الامتثال لشروط العقد. كما أن المرونة في التسعير، وتحديد الأسعار وقياسها، والمفاوضات الدينامية تتم عادة على أساس المعلومات غير المتكافئة والتفاوتات الكبيرة في الوصول إلى المعلومات. علاوة على ذلك، فإن نمذجة الاختيار في التسويق، والاستهداف الدقيق في الحملات السياسية، والدفع نحو nudging تنفيذ السياسات، تستغل عدم المساواة المعلوماتية الأساسية بين الموكل والوكيل.

  3. الظلم والتمييز المعلوماتي: إن المعلوماتُ الشخصية المقدمة في مجال أو سياق محدد (مثل الرعاية الصحية) قد تُغير معناها عند استخدامها في مجال أو سياق آخر (مثل المعاملات التجارية)، وقد تؤدي إلى التمييز وإلحاق الأضرار بالأفراد. ويرتبط هذا المعنى بالبحث الذي أجراه نيسينباوم Nissenbaum (2004) حول النزاهة السياقية، وكذلك بمجالات العدالة بالنسبة لمايكل والزر Walzer (Van den Hoven 2008).

  4. التعدي على الاستقلال الأخلاقي والكرامة الإنسانية: قد يُعرّض الافتقار إلى الخصوصية الأفراد لقوى خارجية تؤثر على خياراتهم وتقودهم إلى اتخاذ قرارات لم يكن ليتخذوها لولا ذلك التأثير. وتؤدي المراقبة الجماعية إلى خلق وضع يحدد فيه الأفراد اختياراتهم وقراراتهم بشكل روتيني ومنهجي ومستمر لأنهم يعرفون أن الآخرين يراقبونهم، وهو ما يؤثر على وضعهم كبشر مستقلين، ويؤدي إلى ما يوصف أحيانا بالـ “أثر الصقيع” عليهم وعلى المجتمع. وثمة ارتباط وثيق بين اعتبارات انتهاك استقلالية الفرد واحترام كرامته. إن التراكم الهائل للبيانات ذات الصلة بهوية الشخص (مثل الربط بين الدماغ البشري والحاسوب، والرسوم البيانية للهوية، والمضاعفات الرقمية أو التوائم الرقمية، وتحليل طوبولوجيا الشبكات الاجتماعية للشخص) قد يؤدي إلى فكرة أننا نعرف شخصًا معينًا نظرًا لوجود الكثير من المعلومات عنه. ويمكن القول بأن القدرة على معرفة الأشخاص بناءً على بياناتهم الضخمة تُعد غرورًا معرفيًا وأخلاقيًا (Bruyns & Van den Hoven 2015)، ولا تحترم حقيقة أن البشر هم أشخاص فاعلين يتمتع كل واحد منهم بحالة ذهنية خاصة ومتفردة لا يمكن الوصول إليها من منظور خارجي (منظور الشخص الثالث أو الثاني) – مهما كانت البيانات مفصلة ودقيقة. ومن ثم فإن احترام الخصوصية ينطوي على اعتراف ضمني بهذه الظواهر الأخلاقية للبشر، أي الاعتراف بأن الإنسان يتميز دائمًا بأمور أكثر مما يمكن أن تقدمه التقنيات الرقمية المتطورة.

وتوفر جميع هذه الاعتبارات أسبابًا أخلاقية وجيهة لتقييد الوصول إلى البيانات الشخصية ومنح الأفراد السيطرة على بياناتهم.

 

1. 5 القانون والتشريع والتحكم غير المباشر في إمكانية الوصول

بعد الاعتراف بوجود أسباب أخلاقية لحماية البيانات الشخصية، أصبحت قوانين حماية البيانات سارية في جميع البلدان تقريبًا. ويكمن المبدأ الأخلاقي الأساسي الذي تقوم عليه هذه القوانين في شرط الموافقة المستنيرة لصاحب البيانات على معالجتها، مما يمنحه (على الأقل من حيث المبدأ) سيطرة على الآثار السلبية المحتملة التي ناقشناها أعلاه. علاوة على ذلك، تتطلب معالجة المعلومات الشخصية تحديد الغرض منها، وأن يكون استخدامها محدودًا، إلى جانب إخطار الأفراد والسماح لهم بتصحيح الأخطاء، وأن تكون الجهة التي لديها البيانات مسؤولة أمام السلطات الرقابية (OECD 1980). ونظرًا إلى استحالة ضمان امتثال جميع أنواع عمليات معالجة البيانات في كل المجالات والتطبيقات لهذه القواعد والقوانين من خلال طرق تقليدية، فمن المتوقع أن ما يسمى “تكنولوجيات تعزيز الخصوصية privacy-enhancing technologies” ونظم إدارة الهوية سيحلان محل الرقابة البشرية في كثير من الحالات. ويتمثل التحدي المتعلق بـ الخصوصية في القرن الحادي والعشرين في ضمان أن التكنولوجيا مصممة بطريقة تدمج متطلبات الخصوصية في البرمجيات والهندسة المعمارية والبنية التحتية وإجراءات العمل بطريقة تجعل من غير المرجح حدوث انتهاكات للخصوصية. كما أن الأجيال الجديدة من لوائح الخصوصية (مثل؛ النظام الأوربي العام لحماية البيانات GDPR) أصبحت تتطلب حاليًا نهج “الخصوصية حسب التصميم”، إذ وينبغي تصميم النظم البيئية للبيانات، والنظم الاجتماعية التقنية، وسلاسل الإمداد، والمنظمات بما في ذلك هياكل الحوافز، والعمليات التجارية، والأجهزة والبرامج التقنية، وتدريب الموظفين، بحيث يكون احتمال انتهاك الخصوصية منخفضًا قدر الإمكان.

 

2. أثر تكنولوجيا المعلومات على الخصوصية

دائمًا ما تدور النقاشات المتعلقة بـ الخصوصية حول التكنولوجيا الحديثة، بدءًا من علم الوراثة والدراسة المستفيضة للمؤشرات البيولوجية، وتصوير الدماغ، والطائرات المسيرة، وأجهزة الاستشعار القابلة للارتداء، وشبكات الاستشعار، ووسائل التواصل الاجتماعي، والهواتف الذكية، والدوائر التلفزيونية المغلقة، مرورًا ببرامج الأمن السيبراني الحكومية، والتسويق المباشر، وبطاقات كشف ترددات الراديو RFID، والبيانات الضخمة، وأجهزة العرض المثبتة على الرأس، ومحركات البحث. ويناقش هذا الجزء أثر بعض هذه التقنيات الحديثة، مع التركيز بوجه خاص على تكنولوجيا المعلومات.

 

2. 1 التطورات في مجال تكنولوجيا المعلومات

يشير مصطلح “تكنولوجيا المعلومات” إلى النظم الآلية لتخزين المعلومات ومعالجتها وتوزيعها، وعادةً ما يتضمن ذلك استخدام الحواسيب وشبكات الاتصال، ويعتمد مقدار المعلومات التي يمكن تخزينها أو معالجتها في أي نظام على التكنولوجيا المستخدمة. ووفقًا لقانون مورُ، فقد زادت الطاقة الاستيعابية لهذه التكنولوجيا بسرعة على مدى العقود الماضية، وهو ما ينطبق أيضًا على سعة التخزين وقدرة المعالجة وعرض النطاق الترددي للاتصالات، وقد أصبح بإمكاننا الآن تخزين البيانات ومعالجتها على مستوى الإكسابايت. وعلى سبيل الإيضاح، فإن تخزين 100 إكسابايت من البيانات على أقراص مدمجة بسعة 720 ميغابايت يتطلب كومة من الأقراص تكاد تصل إلى القمر.

لقد غيرت هذه التطورات بشكل جذري ممارساتنا في توفير المعلومات، كما أن التغيرات السريعة قد زادت من الحاجة إلى النظر بعناية للتأثيرات المرغوبة، حتى إن البعض يتحدث عن الثورة الرقمية بوصفها قفزة تكنولوجية شبيهة بالثورة الصناعية، أو بوصفها ثورة في فهم الطبيعة البشرية والعالم، على غرار ثورات كوبرنيكوس وداروين وفرويد (Floridi 2008). وقد انصب التركيز على الاتصال والتفاعل بالمعنى التقني والمعرفي، فقد أصبح الحيز المادي أقل أهمية، وأصبحت المعلومات في كل مكان، فضلًا عن أن العلاقات الاجتماعية تكيفت مع ذلك.

وعلى غرار وصفنا الخصوصية من ناحية الأسباب الأخلاقية لفرض قيود على الوصول إلى المعلومات الشخصية و/أو استخدامها، فإن زيادة الاتصال التي تفرضها تكنولوجيا المعلومات تطرح العديد من التساؤلات؛ من الناحية الوصفية، ازدادت إمكانية الوصول إلى المعلومات، الأمر الذي يتطلب، بالمعنى المعياري، النظر في استحسان هذا التطور وتقييم احتمالية التنظيم بواسطة التكنولوجيا (Lessig 1999)، والمؤسسات، و/أو القانون.

وبما أن الاتصال يزيد من إمكانية الوصول إلى المعلومات، فإنه يزيد أيضًا من إمكانية تصرف الوكلاء بناءً على مصادر المعلومات الجديدة. وعندما تحتوي هذه المصادر على معلومات شخصية، فإن مخاطر حدوث الأضرار وعدم المساواة والتمييز وفقدان الاستقلالية تظهر بسهولة. على سبيل المثال، قد يواجه أعداؤك صعوبة أقل في تحديد مكانك، وقد يميل المستخدمون إلى التخلي عن الخصوصية للحصول على فوائد متصورة في البيئات الإلكترونية، وقد يستخدم أصحاب العمل المعلومات الإلكترونية لتجنب توظيف مجموعات معينة من الأشخاص. علاوة على ذلك، فإن النظم الآلية قد تحدد طبيعة المعلومات المعروضة بدلًا من أن يحددها المستخدمون، وبالتالي لا يُعرض على المستخدمين سوى الأخبار التي تتطابق مع ملفاتهم الشخصية.

وعلى الرغم من أن التكنولوجيا تعمل على مستوى الأجهزة، فإن تكنولوجيا المعلومات تتكون من نظام معقد من الممارسات الاجتماعية-التقنية، ويشكل سياق استخدامها الأساس لمناقشة دورها في تغيير إمكانيات الوصول إلى المعلومات، وبالتالي التأثير على الخصوصية. وسنناقش بعض التطورات المحددة وأثرها في الأقسام التالية.

 

2. 2 الإنترنت

إن شبكة الإنترنت، التي صممت في ستينيات القرن الماضي وطورت في فترة الثمانينيات كشبكة علمية لتبادل المعلومات، لم تكن مصممة لغرض فصل تدفق المعلومات (Michener 1999)، ولم يكن من المتوقع أن تصبح شبكة الويب العالمية كما هي اليوم أو أن تكون هناك إمكانية لإساءة استخدامها. لقد ظهرت مواقع الشبكات الاجتماعية بغرض استخدامها ضمن مجموعات من الأفراد الذين يعرفون بعضهم البعض في الحياة الواقعية – في البداية، كانت تُستخدم غالبًا في الأوساط الأكاديمية – ولم تكن مطورة من أجل مجتمع عالمي من المستخدمين (Ellison 2007). وقد كان من المفترض أن مشاركة المعلومات مع الأصدقاء المقربين لن تسبب أي ضرر، وأن مسألتي الخصوصية والأمان لم تظهر على جدول الأعمال إلا عندما نمت الشبكة بشكل أكبر. وهذا يعني أنه في معظم الأحيان كان التعامل مع المخاوف المتعلقة بـ الخصوصية على أنها أمور مستجدة تعالج كإضافات Add-Ons ولم يكن التعامل معها ابتداءً في التصميم By-Design.

يدور أحد المواضيع الرئيسية في النقاشات المتعلقة بـ الخصوصية على الإنترنت حول استخدام ملفات تعريف الارتباط (Palmer 2005)، وهي أجزاء صغيرة من البيانات التي تخزنها المواقع الإلكترونية على حاسوب المستخدم، من أجل إضفاء الطابع الشخصي على تجربة زيارة الموقع. ومع ذلك، يمكن استخدام بعض ملفات تعريف الارتباط لتتبع المستخدم عبر مواقع إلكترونية متعددة (ملفات تعريف الارتباط للتتبع)، مما يتيح على سبيل المثال ظهور إعلانات لمنتج معين شاهده المستخدم مؤخرًا على موقع مختلف تمامًا. ونعيد التذكير بأن الغرض من استخدام المعلومات المجمعة لا يكون واضحًا دائمًا، كما أن القوانين التي تتطلب موافقة المستخدم على استخدام ملفات تعريف الارتباط لا تكون ناجحة دائمًا من ناحية زيادة مستوى التحكم، نظرًا لأن طلبات الموافقة تتداخل مع المهام، وقد ينقر المستخدم ببساطة على أي طلبات (Leenes & Kosta 2015). وبالمثل، يمكن لميزات شبكات التواصل الاجتماعي الموجودة في مواقع أخرى (مثل زر “الإعجاب”) أن تسمح لتلك الشبكات بتحديد المواقع التي زارها المستخدم (Krishnamurthy & Wills 2009).

لقد أدى التطور الأخير في الحوسبة السحابية إلى زيادة المخاوف المتعلقة بـ الخصوصية (Ruiter & Warnier 2011)، فقبل ذلك كانت المعلومات متاحة من المواقع، أي أن بيانات المستخدم والبرامج تظل مخزنة محليًا، مما يمنع بائعي البرامج من الوصول إلى البيانات واستخدام الإحصائيات. أما في الحوسبة السحابية، فإن البيانات والبرامج تكون متوفرة على الإنترنت (في السحابة)، وليس من الواضح دائمًا الغرض من استخدام البيانات سواءً التي يولدها المستخدم أو النظام. ونظرًا لأن البيانات أصبحت موجودة في أماكن مختلفة من العالم، فإن هناك غموض حول القانون الواجب تطبيقه، والسلطات التي يمكنها المطالبة بالوصول إلى البيانات. علاوة على ذلك، فإن البيانات التي تجمعها الخدمات والتطبيقات الإلكترونية، مثل محركات البحث والألعاب، تشكل مصدر قلق خاص هنا، لأن البيانات التي تستعملها التطبيقات وتُبلغ المستخدم بها (مثل سجل التصفح، وقوائم الاتصال، الخ) لا تكون واضحة دائمًا، وحتى عندما تكون كذلك، قد يكون الخيار الوحيد المتاح للمستخدم هو عدم استعمال التطبيق.

وسنناقش في الأقسام التالية بعض السمات المميزة للخصوصية على الإنترنت (وسائل التواصل الاجتماعي والبيانات الضخمة).

 

2. 3 وسائل التواصل الاجتماعي

تشكل وسائل التواصل الاجتماعي تحديات إضافية، فلم يعد السؤال مقتصرًا على الأسباب الأخلاقية لتقييد الوصول إلى المعلومات، بل أصبح يشمل أيضًا الأسباب الأخلاقية للحد من دعوة المستخدمين لتقديم جميع أنواع المعلومات الشخصية، حيث إن مواقع التواصل الاجتماعي تدعو المستخدم إلى إضافة المزيد من البيانات لزيادة قيمة الموقع (مثل إبلاغك بأن “نسبة اكتمال ملفك التعريفي هي … ٪”).  وتُغرى تلك المواقع المستخدمين لتقديم بياناتهم الشخصية مقابل الاستفادة من الخدمات، ويدفع المستخدمون مقابل ذلك بياناتهم واهتمامهم، والأدهى من ذلك أن المستخدم قد لا يكون على علم بالمعلومات التي يقدمها، كما هو الحال في المثال المذكور أعلاه بشأن زر “الإعجاب” على المواقع الأخرى. بالتالي، فإن مجرد تقييد الوصول إلى المعلومات الشخصية ليس حلًا منصفًا للقضايا الواردة هنا، كما أن المسألة الأهم تكمن في توجيه سلوك المستخدمين إلى مشاركة معلوماتهم. ويمكن القول بأنه عندما تكون الخدمة مجانية، فإن البيانات تكون مطلوبة كشكل من أشكال الدفع.

إن إحدى طرق الحد من إغراء المستخدمين لمشاركة معلوماتهم تتمثل في المطالبة بأن تكون الإعدادات الافتراضية للخصوصية صارمة. ومع ذلك، فإن هذا الحل سيحد من وصول المستخدمين الآخرين (“أصدقاء الأصدقاء”)، لكنه لن يحد من وصول مزود الخدمة. كما أن هذه القيود تحد من قيمة مواقع الشبكات الاجتماعية نفسها وقابليتها للاستعمال، وقد تقلل من الآثار الإيجابية لهذه الخدمات. ومن الأمثلة الخاصة للإعدادات الافتراضية المراعية للخصوصية هو نهج الاشتراك الطوعي الصريح عوضًا عن نهج إلغاء الاشتراك. عندما يتعين على المستخدم اتخاذ إجراء صريح لتبادل البيانات أو الاشتراك في خدمة أو قائمة بريدية، فإن الآثار الناتجة قد تكون أكثر قبولًا لدى المستخدم. ومع ذلك، فإن الكثير من تلك المواقع ما زالت تعتمد على كيفية تأطير الاختيار (Bellman, Johnson, & Lohse 2001).

2. 4 البيانات الضخمة

يُولّد المستخدمون كميات كبيرة من البيانات عند اتصالهم بالإنترنت، ولا يقتصر ذلك على البيانات التي يُدخلها المستخدم بشكل صريح، بل يشمل أيضًا العديد من الإحصائيات حول سلوك المستخدم: مثل المواقع التي زارها، والروابط التي ضغط عليها، وكلمات البحث المدخلة، إلخ. ويمكن توظيف التنقيب عن البيانات لاستخراج أنماط من هذه البيانات، التي يمكن استخدامها بعد ذلك لاتخاذ قرارات بشأن المستخدم. وعلى الرغم من أن تلك البيانات قد تؤثر فقط على تجربة الاستخدام الإلكترونية (الإعلانات المعروضة)، فإنها قد تؤثر أيضا على المستخدم في سياقات مختلفة تمامًا، بناءً على الأطراف التي لديها حق الوصول إلى المعلومات.

وعلى وجه الخصوص، قد تُستخدم البيانات الضخمة في تصنيف المستخدم (Hildebrandt 2008)، مما يخلق أنماطًا من المجموعات النموذجية لصفاته، ويمكن استعمالها بعد ذلك للتنبؤ باهتماماته وسلوكه. قد تكتفي التطبيقات النزيهة بالقول للمستخدم “قد يعجبك أيضًا…”، ولكن اعتمادًا على البيانات المتاحة، قد تنشأ استنتاجات أكثر حساسية، مثل الديانة المحتملة أو الميول الجنسية، ويمكن أن تؤدي هذه الاستنتاجات بدورها إلى التمييز أو عدم المساواة في المعاملة. وعندما يمكن تصنيف المستخدم ضمن مجموعة معينة، حتى من الناحية الاحتمالية فقط، فإن هذا قد يؤثر على الإجراءات التي يتخذها الآخرون (Taylor, Floridi, & Van der Sloot 2017).  فعلى سبيل المثال، يمكن أن يؤدي التصنيف إلى رفض طلب التأمين أو بطاقة الائتمان، وفي هذه الحالة يكون تحقيق الربح هو السبب الرئيسي لهذا التمييز. وعندما تكون هذه القرارات قائمة على التصنيف، قد يكون من الصعب الطعن فيها أو حتى معرفة التفسيرات التي تقف وراءها. كما يمكن استخدام التصنيف بواسطة المنظمات أو الحكومات المستقبلية التي تتبنى التمييز ضد مجموعات معينة في أجندتها السياسية، من أجل العثور على الفئات المستهدفة وحرمانها من الحصول على الخدمات، أو فعل ما هو أسوأ من ذلك.

إن البيانات الضخمة لا تنشأ فقط عن المعاملات على الإنترنت، إذ يمكن بالطريقة ذاتها جمع البيانات عند التسوق، أو عند تسجيلها بواسطة كاميرات المراقبة في الأماكن العامة أو الخاصة، أو عند استخدام أنظمة الدفع في وسائل النقل العام القائمة على البطاقات الذكية. ويمكن استخدام جميع هذه البيانات لتصنيف المواطنين، واتخاذ قرارات بناء على ذلك. على سبيل المثال، يمكن استخدام بيانات التسوق لإرسال معلومات عن العادات الغذائية الصحية إلى أفراد محددين، وكذلك لاتخاذ قرارات بشأن طلبات التأمين. ووفقًا لقانون حماية البيانات في الاتحاد الأوروبي، يلزم الحصول على إذن لمعالجة البيانات الشخصية، ولا يمكن معالجتها إلا للغرض الذي جُمعت من أجله. بالتالي، فإن التحديات المحددة تتمثل في (أ) كيفية الحصول على إذن عندما لا ينخرط المستخدم في العملية بشكل صريح (كما يحدث عند المراقبة)، و(ب) كيفية منع “الزحف الوظيفي”، أي أن تُستخدم البيانات لأغراض مختلفة بعد جمعها، كما قد يحدث على سبيل المثال مع قواعد بيانات الحمض النووي (Dahl & Sætnan 2009).

ويمكن أن ينشأ قلق خاص من بيانات علم الوراثة والبيانات الجينومية (Tavani 2004, Bruynseels & van den Hoven, 2015). وعلى غرار البيانات الأخرى، يمكن استخدام علم الجينوم في التنبؤات، لاسيما في التنبؤ بمخاطر الأمراض. وباستثناء الأفراد الذين يمكنهم الوصول إلى الملفات التعريفية المفصلة للمستخدمين، فإن السؤال الجوهري هنا هو ما إذا كان ينبغي أن يعرف الفرد ما هو معروف عنه. وبشكل عام، يمكن القول أن من حق المستخدمين الوصول إلى أي معلومات مخزنة عنهم، ولكن في هذه الحالة، قد يكون الحق في عدم المعرفة مكفول أيضًا، خاصة عندما تؤدي معرفة البيانات (مثل مخاطر الأمراض) إلى التأثير سلبًا على الحالة الصحية – عن طريق إثارة الخوف، على سبيل المثال – دون توفير العلاج. وفيما يتعلق بالأمثلة السابقة، قد لا يرغب المرء أيضًا في معرفة نمط سلوكه في التسوق.

 

2. 5 الأجهزة المحمولة

مع تزايد امتلاك المستخدمين للأجهزة المتصلة بالشبكة مثل الهواتف الذكية، فإن الأجهزة المحمولة أصبحت تجمع وترسل المزيد والمزيد من البيانات. وتحتوي هذه الأجهزة عادةً على مجموعة من المستشعرات المولدة للبيانات، تشمل نظام تحديد المواقع (GPS) ومستشعرات الحركة والكاميرات، وقد تُنقل البيانات الناتجة عنها عبر الإنترنت أو عبر شبكات أخرى. ويركز أحد الأمثلة الخاصة على بيانات الموقع، حيث نجد أن العديد من الأجهزة المحمولة تحتوي على جهاز استشعار لتحديد المواقع GPS يعمل على تسجيل موقع المستخدم، لكن حتى من دون وجود جهاز الاستشعار، يمكن استنباط المواقع التقريبية للأجهزة المحمولة، عن طريق رصد الشبكات اللاسلكية المتاحة. وبما أن بيانات الموقع تربط عالم الإنترنت بالبيئة المادية للمستخدم، وفي ظل احتمال وقوع أضرار مادية (مثل الملاحقة، والسطو على المنازل خلال العطلات، وما إلى ذلك)، فإن هذه البيانات غالبًا ما تُعد حساسة بشكل خاص.

علاوةً على ذلك، تحتوي العديد من هذه الأجهزة على الكاميرات التي يمكن استخدامها لالتقاط الصور، عندما تمتلك التطبيقات صلاحية الوصول إليها. ويمكن النظر إلى الكاميرات على أنها أجهزة استشعار، وقد تكون البيانات التي تولدها أكثر خصوصية. وبالنسبة للكاميرات وأجهزة الاستشعار التي على شاكلتها، فإنها تفترض أن المستخدم يعرف متى تُفتح، وتعتمد الخصوصية على تلك المعرفة. أما فيما يتعلق بكاميرات الويب، فعادةً ما يكون هناك ضوء يشير إلى ما إذا كانت الكاميرا مفتوحةً أم لا، لكن قد تُستخدم البرامج الضارة للتلاعب بهذا الضوء. وبشكل عام، فإن “التكنولوجيا القابلة لإعادة التهيئة reconfigurable technology” (Dechesne, Warnier, & van den Hoven 2011) التي تتعامل مع البيانات الشخصية تثير مسألة مدى معرفة المستخدم بتلك التهيئة.

 

2. 6 إنترنت الأشياء

لا تقتصر الأجهزة المتصلة بالإنترنت على الأجهزة الحاسوبية التي يملكها المستخدمون كالهواتف الذكية، بل إن هناك العديد من الأجهزة التي تحتوي على شرائح ذكية أو تكون متصلة بما يسمى إنترنت الأشياء. ويمكن قراءة شرائح RFID (كشف ترددات الراديو) من مسافة محدودة، بحيث يمكنك حملها أمام القارئ بدلًا من إدراجها به. وتحتوي جوازات السفر في الاتحاد الأوروبي والولايات المتحدة على شرائح RFID تحمل البيانات البيومترية المحمية، إلا أن بعض المعلومات مثل جنسية المستخدم يمكن تسريبها بسهولة عند محاولة قراءة مثل هذه الأجهزة (انظر Richter, Mostowski & Poll 2008، في قسم مصادر الإنترنت الأخرى). وقد أصبحت شرائحRFID  “الذكية” مستخدمة في أنظمة الدفع بوسائل النقل العام، في حين أن شرائحRFID  “البسيطة”، التي تحتوي بالأساس على رقم واحد فقط، أصبحت تظهر في أنواع كثيرة من المنتجات كبديل للباركود، وتُستخدم في الخدمات اللوجستية. ومع ذلك، يمكن استعمال هذه الشرائح لتتبع أحد الأشخاص بمجرد معرفة أنه يحمل منتج يحتوي على شريحة.

وتوجد في المنازل عدادات ذكية لقراءة استهلاك الكهرباء والماء وإرسالها تلقائيًا، فضلًا عن وجود أجهزة تنظيم الحرارة وغيرها من الأجهزة التي يستطيع المالك التحكم بها عن بعد. وبما أن هذه الأجهزة تولد الإحصائيات، فإنه يمكن استخدامها للتنقيب عن البيانات والتصنيف. وسيشهد المستقبل توصيل المزيد والمزيد من الأجهزة المنزلية، وكل منها سيولّد معلومات منفصلة. ولا شك أن تقنيات الذكاء المحيطة (Brey 2005)، والحوسبة الموجودة في كل مكان، وإنترنت الأشياء (Friedewald & Raabe 2011)، وكذلك تمكين التكيف التلقائي للبيئة مع المستخدم بالاعتماد على التفضيلات المعلنة والملاحظات الضمنية، إلى جانب استقلال المستخدم، تُعد جميعها الموضوع الرئيسي عند التفكير في آثار مثل هذه الأجهزة على الخصوصية. وبشكل عام، فإن التحرك نحو توفير السلع الموجه نحو الخدمات، مع إبلاغ الموردين بكيفية استخدام المنتجات من خلال تكنولوجيا المعلومات والاتصال المرتبط بها، يتطلب النظر في المخاوف المتعلقة بـ الخصوصية والشفافية (Pieters 2013). على سبيل المثال، يجب إبلاغ المستخدمين عندما تحتوي الأجهزة المتصلة على ميكروفون، وكيف ومتى يُستخدم.

 

2. 7 الحكومة الإلكترونية

شهدت الحكومة والإدارة العامة تحولات جذرية نتيجة لتوافر نظم تكنولوجيا المعلومات المتطورة، ومن أمثلة هذه التغييرات جوازات السفر البيومترية، والخدمات الحكومية الإلكترونية، وأنظمة التصويت، بالإضافة إلى مجموعة متنوعة من الأدوات والمنصات الإلكترونية لمشاركة المواطنين، وكذلك إمكانية الوصول الإلكتروني إلى تسجيلات للجلسات البرلمانية واجتماعات اللجان الحكومية.

وبالنظر في قضية التصويت بالانتخابات، نجد أن تكنولوجيا المعلومات قد تلعب دورًا في مختلف مراحل عملية الاقتراع، التي قد يكون لها تأثير مختلف على خصوصية الناخب. وتشترط معظم البلدان أن تجري الانتخابات بالاقتراع السري، لمنع شراء الأصوات أو إكراه الناخبين. ومن المفترض في هذه الحالة أن يحافظ الناخب على خصوصية صوته، حتى لو أراد الإفصاح عنه. وبالنسبة لتكنولوجيا المعلومات المستخدمة في التصويت، يُعرَّف هذا الأمر بأنه شرط عدم استلام وصل بالتصويت أو شرط منع الإكراه (Delaune, Kremer & Ryan 2006)، وتحرص السلطات داخل مراكز الاقتراع على أن يحافظ الناخب على سرية التصويت، إلا أنه من غير الممكن فرض عملية المراقبة تلك عند التصويت الإلكتروني أو التصويت عبر البريد، ولا يمكن حتى فرضها بالوسائل التكنولوجية، بحيث يستطيع أي شخص أن يراقب دائمًا تصويت الناخب. وفي هذه الحالة، فإن الخصوصية ليست أحد الحقوق فحسب، بل إنها واجب أيضًا. وتلعب التطورات في مجال تكنولوجيا المعلومات دورًا مهمًا في الإمكانيات الموفرة للناخب لأداء هذا الواجب، فضلًا عن إمكانيات السلطات للتحقق من ذلك. وبمعنى أوسع، قد تغير مبادرات الديمقراطية الإلكترونية الطريقة التي يُنظر بها إلى الخصوصية في العملية السياسية.

وبوجه عام، تُعد الخصوصية أمرًا مهمًا في العملية الديمقراطية لمنع التأثير غير المشروع. وفي حين أن انعدام الخصوصية في عملية التصويت يمكن أن يتيح شراء الأصوات وإكراه الناخبين، فإن هناك طرقًا أكثر دهاءً للتأثير على العملية الديمقراطية، مثل الحملات الموجهة التي تحوي معلومات (مضللة). كما أن الأنشطة (السياسية) للمواطنين على الإنترنت، لاسيما على وسائل التواصل الاجتماعي، تساهم في تسهيل تلك المحاولات بسبب إمكانية توجيه الحملات واستهداف الأشخاص من خلال التصنيف السلوكي. وبالمقارنة مع الأنشطة السياسية في الحياة الواقعية، نجد أن من الصعب إخفاء الميول والأنشطة السياسية على الإنترنت، ومن المرجح أن تزداد انتهاكات السرية، وتصبح محاولات التأثير على الآراء أكثر توسعًا.

 

2. 8 المراقبة

تُستخدم تكنولوجيا المعلومات لجميع أنواع مهام المراقبة، حيث يمكن استخدامها لزيادة وتوسيع نظم المراقبة التقليدية مثل الدوائر التلفزيونية المغلقة وغيرها من أنظمة الكاميرات، بهدف تحديد أفراد معينين داخل الحشود باستخدام تقنيات التعرف على الوجه، أو لرصد أماكن محددة تمارس فيها سلوكيات غير مرغوبة. وتصبح هذه الأساليب أكثر قوة عندما تُدمج مع تقنيات أخرى، مثل مراقبة أجهزة إنترنت الأشياء (Motlagh et al. 2017).

وإلى جانب زيادة نظم المراقبة الموجودة حاليًا، تُستخدم تقنيات تكنولوجيا المعلومات والاتصالات في الوقت الحاضر في المجال الرقمي بشكل رئيسي، وعادةً ما تكون مدرجة معًا تحت مصطلح “رأسمالية المراقبة” (Zuboff 2019). وتُستخدم وسائل التواصل الاجتماعي وغيرها من النظم الإلكترونية لجمع كميات كبيرة من البيانات عن الأفراد – إما بطريقة “طوعية” لأن المستخدمين يشتركون في خدمة معينة (مثل جوجل أو فيسبوك)، أو غير طوعية من خلال جمع كل أنواع البيانات ذات الصلة بالمستخدم بطريقة أقل شفافية. ومن ثم تُستخدم تقنيات تحليل البيانات والتعلم الآلي لإنشاء نماذج تتنبأ بسلوكيات المستخدمين، ولا يقتصر استخدامها على الإعلانات الموجهة على سبيل المثال، بل يمكن أن تُستغل لأغراض خبيثة مثل الاحتيال أو الاستهداف الجزئي للتأثير على الانتخابات (Albright 2016، قسم مصادر الإنترنت الأخرى)، أو الاستفتاءات مثل استفتاء خروج بريطانيا من الاتحاد الأوروبي (Cadwalladr 2019، قسم مصادر الإنترنت الأخرى).

وبالإضافة إلى استعمال المراقبة في القطاع الخاص، تستخدم الحكومات تقنيات المراقبة على نطاق واسع، إما من قِبل أجهزة الاستخبارات أو أجهزة إنفاذ القانون. وعادةً ما يكون لهذه الأنواع من نظم المراقبة ما يبررها، من خلال استجداء عبارات “الصالح العام” وحماية المواطنين، إلا أن استخدامها مثير أيضًا للجدل. وبالنسبة لهذه النظم، فإن المرء عادةً ما يرغب في ضمان أن تكون أي آثار سلبية على الخصوصية متناسبة مع الفوائد المجنية من التكنولوجيا. ونظرًا لأن هذه النظم تكون محاطة عادةً بالسرية، فمن الصعب على الأطراف الخارجية معرفة ما إذا كانت هذه النظم تستخدم بشكل متناسب أو أنها مفيدة بالفعل لمهامهم (Lawner 2002). ويكتسي هذا الأمر طابعًا ملحًا عندما تستخدم الحكومات بيانات أو خدمات القطاع الخاص لأغراض المراقبة.

إن الاستخدام شبه الشامل لتقنيات التشفير الجيدة في نظم الاتصالات يجعل من الصعب أيضًا جمع معلومات مراقبة فعالة، مما يؤدي إلى المزيد والمزيد من الدعوات التي تنادي بالتسلل عبر “الأبواب الخلفية” التي يمكن استخدامها حصرًا من قبل الحكومة في نظم الاتصالات. أما من منظور الخصوصية، فيمكن تقييم هذا الأمر على أنه غير مرغوب فيه، ليس فقط لأنه يتيح للحكومات الوصول إلى المحادثات الخاصة، لكن لأنه يؤدي أيضًا إلى إضعاف الأمن العام لنظم الاتصالات التي تستخدم هذه التقنية (Abelson et al. 2015).

 

3. كيف يمكن لتكنولوجيا المعلومات أن تتغلب بنفسها على مخاوف الخصوصية؟

بينما يُنظر إلى تكنولوجيا المعلومات عادةً على أنها السبب في مشاكل الخصوصية، فهناك بالمقابل عدة طرق يمكن أن تساعد فيها تكنولوجيا المعلومات على حل هذه المشكلات، حيث يمكن استخدام قواعد أو مبادئ توجيهية أو أفضل الممارسات لتصميم أنظمة تحافظ على الخصوصية. وتتراوح هذه الفرص المتاحة بدايةً من منهجيات التصميم الأخلاقية المعلنة، مرورًا باستخدام التشفير لحماية المعلومات الشخصية من الاستخدام غير المصرح به. كما أن الأساليب المتبعة في مجال أمن المعلومات تحديدًا، والتي تهدف إلى حماية المعلومات من الوصول غير المصرح به، يمكن أن تلعب دورًا رئيسًا في حماية البيانات الشخصية.

 

3. 1 أساليب التصميم

يوفر التصميم المراعي للقيم “نهجًا يستند إلى أسسٍ نظرية لتصميم التكنولوجيا، حيث يراعي القيم الإنسانية بشكل مبدئي وشامل خلال جميع مراحل عملية التصميم” (Friedman et al. 2006). كما يوفر هذا التصميم مجموعة من القواعد والمبادئ التوجيهية لتصميم النظم مع وضع قيم محددة في عين الاعتبار، وقد تكون “الخصوصية” إحدى هذه القيم، ومن ثم يمكن استخدام التصميم المراعي للقيم كوسيلة لتصميم نظم تكنولوجيا المعلومات التي تحترم الخصوصية (Van den Hoven et al. 2015). ويمكن النظر إلى النهج “المراعي للخصوصية من حيث تصميمه”، حسبما دعا إليه كافوكيان Cavoukian (2009) وآخرون، على أنه أحد نهج التصميم المراعية للقيم التي تركز بشكل خاص على الخصوصية (Warnier et al. 2015). وقد سعت مؤخرًا بعض النهج، مثل نهج “هندسة الخصوصية” (Ceross & Simpson 2018)، إلى توسيع نهج الخصوصيةَ من حيث التصميم عن طريق محاولة توفير عدد أكبر من الأساليب العملية القابلة للنشر، التي يمكن من خلالها تحقيق الخصوصية على مستوى النظام.

ويوفر نهج الخصوصية من حيث التصميم إرشادات توجيهية رفيعة المستوى في شكل مبادئ من أجل تصميم نظم تحافظ على الخصوصية. وتحمل هذه المبادئ في جوهرها معنى أن “حماية البيانات ينبغي النظر إليها بصورة استباقية بدلًا من أن تكون رد فعل، مما يجعل الخصوصية من حيث التصميم نهجًا وقائيًا وليس مجرد نهج علاجي” (Cavoukian 2010). وتتمثل النقطة الجوهرية في نهج الخصوصية من حيث التصميم في أن حماية البيانات ينبغي أن تكون أمرًا محوريًا خلال جميع مراحل تصنيع المنتج، بدءًا من التصميم الأولي، ثم الاستخدام العملي، وانتهاءً باستبعاد المنتج (انظر Colesky et al. 2016 لمزيد من التحليل النقدي لنهج الخصوصية من حيث التصميم). ويشير نهج تقييم تأثير الخصوصية Privacy Impact Assessment الذي اقترحه كلارك Clarke (2009) إلى نقطة مماثلة، حيث يقترح “إجراء عملية منهجية لتقييم الآثار المحتملة على الخصوصية لأي مشروع أو مبادرة أو مخطط أو نظام مقترح” (Clarke 2009). لكن يجدر الانتباه إلى أن هذه الأساليب لا ينبغي النظر إليها كمناهج للمراجعة، بل كوسائل لجعل التوعية بـ الخصوصية والامتثال لها جزءًا لا يتجزأ من الثقافة التنظيمية والهندسية.

علاوةً على ذلك، فإن هناك العديد من المبادئ التوجيهية للصناعة يمكن استخدامها لتصميم نظم تكنولوجيا معلومات تحافظ على الخصوصية. على سبيل المثال، يوفر معيار أمان البيانات في صناعة بطاقات الدفع Payment Card Industry Data Security Standard (انظر PCI DSS v3.2, 2018، في قسم مصادر الإنترنت الأخرى)، إرشادات في غاية الوضوح للنظم المراعية للخصوصية والأمان في مجال صناعة البطاقات الائتمانية وللشركاء (تجار التجزئة والبنوك). كما أن معايير المنظمة الدولية لتوحيد المقاييس  (ISO)  (Hone & Eloff 2002) تُعد أحد المصادر الموضحة لأفضل الممارسات والمبادئ التوجيهية، لاسيما فيما يتعلق بأمن المعلومات. بالإضافة إلى ذلك، فإن المبادئ التي شكلتها توجيهات الاتحاد الأوروبي لحماية البيانات، التي تستند في حد ذاتها إلى الممارسات العادلة في مجال المعلومات (Gellman 2014) منذ أوائل السبعينيات – متمثلة في الشفافية والغرض والتناسب وإمكانية الوصول والنقل – تُعد مبادئ محايدة من الناحية التكنولوجية، ومن ثم يمكن اعتبارها “مبادئ تصميمية” رفيعة المستوى. بالتالي، فإن النظم المصممة وفقًا لهذه القواعد والمبادئ الإرشادية ينبغي – من حيث المبدأ – أن تكون ممتثلة لقوانين الخصوصية في الاتحاد الأوروبي وتحترم خصوصية مستخدميها.

وعلى الرغم من أن القواعد والمبادئ المذكورة أعلاه تقدم إرشادات رفيعة المستوى لتصميم نُظم تحافظ على الخصوصية، فإن هذا لا يعني أن اتباع هذه المنهجيات سيُسفر (تلقائيًا) عن نظام مراعي للخصوصية في مجال تكنولوجيا المعلومات، حيث إن بعض المبادئ التصميمية تتسم بأنها مبهمة وتجريدية. إذًا، ما المقصود بإنشاء تصميم شفاف أو متناسب؟ إن هناك حاجة إلى تفسير المبادئ ووضعها في سياقها عند تصميم نظام محدد، لكن نظرًا لأن الناس مختلفون، فإن تفسيراتهم للمبادئ ستكون مختلفة، وهذا يؤول إلى خيارات تصميم متنوعة لها تأثيرات مختلفة على الخصوصية. كما أن هناك فرق بين تصميم نظام حاسوبي وبين تنفيذه، فخلال مرحلة التنفيذ، تظهر أخطاء البرنامج، التي يمكن استغلال بعضها لخرق النظام واستخراج المعلومات الخاصة. بالتالي، تظل كيفية تنفيذ نُظم الحاسوب الخالية من الأخطاء مسألة بحثية مفتوحة النقاش (Hoare 2003). وبالإضافة إلى ذلك، فإن عملية التنفيذ هي مرحلة أخرى، تُحدد فيها الخيارات والتفسيرات: إذ يمكن تنفيذ تصاميم نظم الحاسوب بطرق عديدة لا متناهية. علاوةً على ذلك، فمن الصعب للغاية – فيما يتعلق بأي نظام حاسوبي يفوق النُظم الأحادية غير الصفرية – التحقق مما إذا كانت عملية التنفيذ مستوفية للتصميم والمواصفات (Loeckx, Sieber, & Stansifer 1985)، كما أن هذا الأمر يكون أكثر صعوبة بالنسبة للمتطلبات غير الوظيفية مثل “الحفاظ على الخصوصية” أو خصائص الأمان بشكل عام.

وتهدف بعض الحلول المحددة لمشاكل الخصوصية إلى زيادة مستوى وعي المستخدم وموافقته. ويمكن النظر إلى هذه الحلول على أنها محاولة لتطبيق مفهوم الموافقة المستنيرة ]الموافقة عن علم[ على قضايا الخصوصية المتعلقة بالتكنولوجيا (Custers et al. 2018)، وهو ما يرتبط بفكرة أن إعدادات الخصوصية وسياساتها يجب أن تكون قابلة للتوضيح للمستخدمين (Pieters 2011). على سبيل المثال، يدعم تطبيق مدرب الخصوصية Privacy Coach العملاء في اتخاذ قرارات الخصوصية عند استعمالهم بطاقات  RFID (Broenink et al. 2010). ومع ذلك، يتمتع المستخدمون بقدرة محدودة على التعامل مع مثل هذه الخيارات، كما أن المبالغة في توفير الخيارات قد تؤدي بسهولة إلى مشكلة الحمل الأخلاقي الزائد (van den Hoven, Lokhorst, & Van de Poel 2012). بالتالي، فإن الحل التقني يكمن في دعم المطابقة التلقائية لسياسة الخصوصية التي وضعها المستخدم ضد السياسات الصادرة عن مواقع الويب أو التطبيقات.

 

3. 2 تقنيات تعزيز الخصوصية

لقد أصبح هناك عدد متزايد من الأدوات البرمجية المتاحة التي توفر شكلًا من أشكال الخصوصية لمستخدميها (تتمثل عادة في إخفاء هويته)، وتُعرف هذه الأدوات باسم تقنيات تعزيز الخصوصية (Danezis & Gürses 2010، قسم مصادر الإنترنت الأخرى). ومن الأمثلة على ذلك أدوات إخفاء الهوية في مجال الاتصالات مثل تطبيق Tor (Dingledine, Mathewson, & Syverson 2004) وتطبيق Freenet (Clarke et al. 2001) وأنظمة إدارة الهوية التي توجد لها العديد من حزم البرمجيات التجارية (انظر أدناه). وتسمح أدوات إخفاء الهوية في مجال الاتصالات بتصفح المستخدمين للويب بشكل مجهول (باستخدام Tor) أو تمكنهم من مشاركة المحتوى دون الكشف عن هويتهم (Freenet)، حيث تستخدم تلك الأدوات عددًا من تقنيات التشفير والبروتوكولات الأمنية من أجل ضمان هدفهم المتمثل في الاتصال المجهول. ويستعمل كلا النظامين الخاصية التي يستخدمها العديد من مستخدمي النظام في الوقت ذاته، والتي توفر تقنية إخفاء الهوية ضمن مجموعةk-anonymity  (Sweeney 2002): إذ لا يمكن تمييز أي فرد بشكل محدد من داخل مجموعة حجمها k، عندما تكون قيمة k كبيرة. وتختلف قيمة k بناءً على طريقة عمل كل نظام، حيث يمكن أن تتراوح بين بضع مئات ومئات الآلاف. ويعتمد تطبيق Tor على تشفير الرسائل وتدويرها بين العديد من الحواسيب المختلفة، وبالتالي إخفاء المرسل الأصلي للرسالة (ما يعني توفير تقنية إخفاء الهوية). وبالمثل، يعمل تطبيق Freenet على تخزين المحتوى بصيغة مشفرة من جميع مستخدمي النظام. ونظرًا لأن المستخدمين أنفسهم لا يملكون المفاتيح اللازمة لفك التشفير، فإنهم لا يعرفون نوع المحتوى الذي يخزنه النظام على حواسيبهم، مما يوفر قدرًا معقولًا من التستر و الخصوصية، ويستطيع النظام استرداد المحتوى المشفر في أي وقت وإرساله إلى مستخدمين مختلفين.

وعلى الجانب الآخر، فإن لتقنيات تعزيز الخصوصية سلبياتها. لنأخذ على سبيل المثال تطبيق Tor، الذي يسمح بالاتصال والتصفح المجهولين عبر الإنترنت، إذ يمكن أن يصبح التطبيق عرضةً للهجوم، نظرًا لأن إخفاء هوية المستخدم لا يكون مضمونًا، في ظل ظروف معينة (Back, Möller, & Stiglic 2001; Evans, Dingledine, & Grothoff 2009). كما أن تطبيق Freenet (وغيره من التطبيقات) لديه مشاكل مماثلة (Douceur 2002). ويجدر الانتباه إلى أن نجاح مثل هذه الهجمات يتطلب وصول المهاجمُ إلى موارد كبيرة لا تتوفر عمليًا إلا لأجهزة الاستخبارات في الدول. ومع ذلك، فإن هناك مخاطر أخرى، إذ يصعب على المستخدم العادي إعداد مثل هذه الأدوات البرمجية بشكل صحيح، وإن لم يتم إعدادها بشكل صحيح، فلا يمكن حينها ضمان إخفاء هوية المستخدم. كما أن هناك خطر دائم يتمثل في اختراق الحاسوب الذي يشغل برنامج الحفاظ على الخصوصية بواسطة أحصنة طروادة (أو غير من الآفات الرقمية) التي تراقب جميع الاتصالات وتعرف هوية المستخدم.

وثمة خيار آخر لتوفير تقنية إخفاء الهوية يتمثل في إخفاء هوية البيانات من خلال برامج خاصة، حيث توجد أدوات تزيل أسماء المرضى وتجعل بيانات العمر تظهر كفترات زمنية: كأن يتم تمثيل من يبلغون 35 عامًا بأن عمرهم يقع ضمن الفئة العمرية 30-40. وتكمن الفكرة وراء برامج إخفاء الهوية هذه في عدم إمكانية ربط السجلات بالأفراد، في حين أنه ما يزال من الممكن استخدام بعض البيانات ذات الصلة لأغراض علمية أو لأغراض أخرى. وتكمن المشكلة هنا في أن إخفاء هوية البيانات وإزالة الروابط بينها وبين الأفراد سيجعل من الصعب جدًا أن تبقى تلك البيانات مفيدة لأغراض البحث. ومع ذلك، فقد أظهر الباحثون أنه من الممكن دائمًا إعادة بناء الروابط مع الأفراد باستخدام أساليب إحصائية متطورة (Danezis, Diaz, & Troncoso 2007) عن طريق الجمع بين قواعد البيانات المتعددة (Anderson 2008) التي تحتوي على معلومات شخصية. علاوةً على ذلك، يمكن أن تساعد بعض التقنيات مثل تقنية إخفاء الهوية ضمن مجموعة k-anonymity على تعميم البيانات بما يكفي لجعلها غير قابلة للكشف عن الهوية (LeFevre et al. 2005).

 

3. 3 التشفير

لطالما اُستخدمت عمليات التشفير كوسيلة لحماية البيانات، ويعود تاريخ أول عملية إلى شفرة القيصر منذ أكثر من ألفي عام. وقد أصبحت تقنيات التشفير الحديثة ضرورية في أي نظام بمجال تكنولوجيا المعلومات يتطلب تخزين (وبالتالي حماية) البيانات الشخصية، مثل توفير اتصالات آمنة (سرية) للتصفح (HTTPS) والشبكات (VPN). لكن لاحظ أن التشفير في حد ذاته لا يوفر أي حماية ضد خرق البيانات؛ فقط عندما يطبق بشكل صحيح وفي سياق معين، فإنه يُشكل “سياجًا” حول البيانات الشخصية، بالإضافة إلى أن مخططات التشفير، التي تقادمت بسبب زيادة سرعة الحواسيب أو ظهور هجمات جديدة، قد تشكل تهديدات للخصوصية (على المدى البعيد).

ونظرًا لأن علم التشفير حقلٌ كبير، فإن أي وصفٍ هنا سيكون ناقصًا. وبدلًا من ذلك، سنركز على بعض التقنيات الأحدث للتشفير، لاسيما تقنية التشفير المتماثل، التي يمكن أن تصبح في غاية الأهمية لمعالجة البيانات الشخصية والبحث فيها.

توجد تقنيات مختلفة للبحث داخل البيانات المشفرة (Song et al. 2000, Wang et al. 2016)، التي توفر شكلًا من أشكال حماية الخصوصية (وهو أن البيانات مشفرة) وكذلك الوصول الانتقائي إلى البيانات الحساسة. وتُعد تقنية “التشفير المتماثل” إحدى التقنيات الجديدة نسبيًا التي يمكن استخدامها لتصميم نظم تحافظ على الخصوصية (Gentry 2009, Acar et al. 2018). ويسمح التشفير المتماثل للمعالج بمعالجة البيانات المشفرة، أي أنه يمكن للمستخدمين إرسال البيانات الشخصية مشفرة وكذلك الحصول على بعض النتائج المفيدة بشكل مشفر – مثل الحصول على توصيات الأفلام التي يحبها الأصدقاء عبر الإنترنت بصيغة مشفرة. ويستطيع المستخدم الأصلي فك تشفير النتيجة مرة أخرى واستخدامها دون الكشف عن أي بيانات شخصية لمعالج البيانات. ويمكن استخدام التشفير المتماثل، على سبيل المثال لا الحصر، لتجميع البيانات المشفرة مما يتيح حماية الخصوصية والمعلومات المجمعة المفيدة (مجهولة الهوية)، إلا أن هذه التقنية غير مطبقة حاليًا على نطاق واسع، نظرًا لوجود مشاكل كبيرة على الأداء في حال أراد أحدٌ تطبيق التشفير المتماثل بالكامل على كميات كبيرة من البيانات المخزنة في أنظمة اليوم. ومع ذلك، تظهر أشكال مختلفة من مخطط التشفير المتماثل الأصلي، مثل التشفير شبه المتماثل (Badawi et al. 2018)، التي تبشر بإمكانية تطبيقها على نطاق أوسع في الممارسة العملية.

وقد وُصفت الفكرة الرئيسية لتقنية سلسلة الكتل Blockchain لأول مرة في البحث المهم حول عملة البيتكوين Bitcoins (Nakamoto, n.d. ، قسم مصادر الإنترنت الأخرى). ويمكن وصف تقنية سلسلة الكتل بشكل مبسط على أنها دفتر حسابات موزع يعمل على تخزين المعاملات بطريقة لا تحظى بسمعة جيدة، دون الاستعانة بطرف ثالث موثوق به. ويُستخدم التشفير لضمان أن جميع المعاملات “موافق عليها” من قبل أعضاء سلسلة الكتل Blockchain وضمان تخزينها بطريقة تربطها بالمعاملات السابقة ولا يمكن إزالتها. وعلى الرغم من أن هذه التقنية تركز على نزاهة البيانات وألا تكون مجهولة الهوية بطبيعتها، فإنها تمكن العديد من التطبيقات المتعلقة بـ الخصوصية من الوصول (Yli-Huumo et al. 2016, Karame and Capkun 2018)، مثل العملات الرقمية المشفرة والمجهولة (Narayanan et al. 2016)، كما تسمح بالتحكم الذاتي في الهوية (انظر أدناه).

3. 4 إدارة الهوية

يُعد استخدام المعرفات الإلكترونية لهوية المستخدمين وإدارتها أمران حاسمان في شبكة الإنترنت والشبكات الاجتماعية الحالية، نظرًا لأن السمعة الإلكترونية أصبحت تحظى بأهمية أكبر، سواء بالنسبة للمستخدمين أو للشركات. وفي ظل عصر البيانات الضخمة الذي نعيشه حاليًا، فإن المعلومات الصحيحة عن المستخدمين لها قيمة نقدية متزايدة.

كما أن أطر “تسجيل الدخول الأحادي” التي تقدمها أطراف ثالثة مستقلة (OpenID)، بل وتقدمها كذلك بعض الشركات الكبرى مثل فيسبوك ومايكروسوفت وجوجل (Ko et al. 2010)، تعمل على تسهيل اتصال المستخدمين بالعديد من الخدمات عبر الإنترنت باستخدام هوية إلكترونية واحدة. وعادةً ما ترتبط هذه الهويات الإلكترونية مباشرة بهويات العالم الحقيقي (Offline) للأفراد؛ في الواقع، يطلب فيسبوك وجوجل وغيرهما هذا النوع من تسجيل الدخول (den Haak 2012). ويمثل اشتراط وجود ربط مباشر بين الهويات الإلكترونية وهويات “العالم الحقيقي” إشكالية من منظور الخصوصية، لأنها تسمح بتصنيف المستخدمين (Benevenuto et al. 2012)، ولن يدرك جميع المستخدمين المقدار الهائل للبيانات التي تجمعها الشركات بهذه الطريقة، أو مدى سهولة إنشاء ملف تعريفي مفصل للمستخدمين، وستصبح عملية التنصيف أسهل في حال دمج معلومات الملف التعريفي مع تقنيات أخرى مثل التأكيد الضمني للهوية عبر ملفات تعريف الارتباط Cookies وتتبع تلك الملفات (Mayer & Mitchell 2012).

ويكمن الحل الأفضل، من منظور الخصوصية، في استخدام تأكيد الهوية القائم على السماتattribute-based authentication  (Goyal et al. 2006) الذي يسمح بالوصول إلى الخدمات عبر الإنترنت بناءً على سمات المستخدمين، مثل أصدقائهم وجنسيتهم وسنهم وما إلى ذلك. وعلى الرغم من أنه ما زال بالإمكان تتبع أفراد معينين بالاعتماد على السمات المستخدمة، فإن هذا الأمر لم يعد حاسمًا. ويضاف إلى ذلك أنه لم يعد من الممكن تعقب المستخدمين عبر الخدمات المختلفة لأن المستخدمين يستطيعون استعمال سمات مختلفة للوصول إلى خدمات متنوعة مما يجعل من الصعب تتبع الهويات الإلكترونية عبر عمليات متعددة، وهو ما يوفر للمستخدم عدم قابلية ربط هويته. وقد ظهر في الآونة الأخيرة (Allen 2016، مصادر إنترنت أخرى) مفهوم التحكم الذاتي بالهوية، الذي يهدف إلى منح المستخدمين الملكية الكاملة والتحكم المطلق في هوياتهم الرقمية. وتُستخدم تقنية سلسلة الكتل لتمكين المستخدمين من التحكم في هوياتهم الرقمية دون استخدام طرف ثالث تقليدي موثوق به (Baars 2016).

 

4. التقنيات الناشئة وفهمنا للخصوصية

أوضحنا في الأقسام السابقة كيف يمكن للتقنيات الحالية أن تؤثر على الخصوصية، وكذلك كيف يمكن أن تساهم في تخفيف الآثار غير المرغوب فيها. ومع ذلك، فإن هناك تقنيات مستقبلية وناشئة قد يكون لها تأثير أعمق بكثير. ولنأخذ على سبيل المثال واجهات الربط بين الدماغ والحاسوب؛ في حالة توصيل الحواسيب مباشرة بالدماغ، فلن تخضع الخصائص السلوكية فقط لاعتبارات الخصوصية، وإنما حتى أفكار المرء، التي تستند إليها قرارات الآخرين، تكون عرضة لخطر أن تصبح عامة. علاوةً على ذلك، قد يكون من الممكن تغيير سلوك المرء عن طريق هذه التكنولوجيا. بالتالي، فإن هذه التطورات تتطلب مزيدًا من النظر في أسباب حماية الخصوصية. وعلى وجه الخصوص، عندما يمكن التأثير على عمليات الدماغ من الخارج، فإن الاستقلال الذاتي سيمثل قيمة ينبغي إعادة النظر فيها لضمان الحماية الكافية.

وبصرف النظر عن تقييم تكنولوجيا المعلومات قياسًا على المعايير الأخلاقية الحالية، ينبغي على المرء أيضًا النظر في إمكانية تأثير التغيرات التكنولوجية على المعايير نفسها (Boenink, Swierstra & Stemerding 2010)، بالتالي، فإن تأثير التكنولوجيا على الخصوصية لا يقتصر فقط على تغيير إمكانية الوصول إلى المعلومات، وإنما يشمل أيضًا تغيير معايير الخصوصية نفسها. على سبيل المثال، تدعو مواقع الشبكات الاجتماعية المستخدمين إلى مشاركة المزيد من المعلومات بصورة أكبر من المعدل الطبيعي للمشاركة، وقد أصبح هذا “الإفراط في المشاركة” ممارسة مقبولة ضمن مجموعات معينة. ومع وجود التكنولوجيات المستقبلية والناشئة، يمكن أيضًا توقع مثل هذه التأثيرات، وبالتالي يجب أخذها بعين الاعتبار عند محاولة التخفيف من الآثار.

وثمة سؤال أساسي آخر يتمحور حول ما إذا كان من الممكن حماية الخصوصية من خلال محاولة إخفاء المعلومات عن الأطراف التي قد تستخدمها بطرق غير مرغوب فيها، بالنظر إلى المستوى المستقبلي (وحتى الحالي) من الاتصال المعلوماتي. يجادل جوتيرث ودي هارت  Gutwirth & De Hert (2008) بأنه قد يكون من الأجدى حماية الخصوصية عن طريق الشفافية – من خلال مطالبة الجهات الفاعلة بتبرير القرارات المتخذة بشأن الأفراد، وبالتالي الإصرار على ألا تكون القرارات مستندة إلى معلومات غير مشروعة. لكن هذا النهج يأتي مصحوبًا بمشاكله الخاصة، فقد يكون من الصعب إثبات أن المعلومات الخاطئة قد اُستخدمت لاتخاذ القرارات. ومع ذلك، فمن المحتمل أن يبدأ المواطنون، في المقابل، بجمع بيانات عن الجهات التي تجمع البيانات عنهم، مثل الحكومات. ويمكن استخدام مثل هذه “الرقابة المضادة” لجمع المعلومات حول طريقة استخدام المعلومات، وبالتالي تحسين المساءلة (Gürses et al. 2016). كما أن الحركة الداعمة للمصادر المفتوحة قد تسهم في شفافية معالجة البيانات، ويمكن النظر إلى الشفافية، في هذا السياق، على أنها شرط مؤيد للأخلاق يساهم في الخصوصية (Turilli & Floridi 2009).

ويجادل البعض بأن المبدأ الوقائي، المعروف جيدًا في الأخلاقيات البيئية، قد يكون له دور أيضًا في التعامل مع تكنولوجيا المعلومات الناشئة (Pieters & van Cleeff 2009; Som, Hilty & Köhler 2009)، فمن شأن هذا المبدأ ضمان أن عبء إثبات عدم وجود آثار لا يمكن تداركها لتكنولوجيا المعلومات على المجتمع، من ناحية علاقات القوة والمساواة على سبيل المثال، يقع على عاتق أنصار التكنولوجيا الجديدة. ويمكن عندئذ أن يستخدم التحوط بهذا المعنى لفرض قيود على المستوى التنظيمي، بالاقتران مع تمكين المستخدمين أو كبديل له، مما قد يساهم في منع الحمل الزائد للمعلومات من جانب المستخدم. وبصرف النظر عن المناقشات العامة حول السمات المرغوبة وغير المرغوبة للمبدأ الوقائي، فإن التحديات التي يواجهها تكمن في ترجمته إلى الآثار الاجتماعية والاستدامة الاجتماعية، فضلًا عن تطبيقه على النتائج الناجمة عن الأفعال المتعمدة للوكلاء. وفي حين أن حدوث التهديدات أو الحوادث الطبيعية هو احتمال قائمٌ في طبيعته، فإن المهتمين بإساءة استعمال المعلومات يتصرفون بصورة استراتيجية، مما يتطلب نهجًا مختلفًا إزاء المخاطر (أي الأمن مقابل السلامة). وبالإضافة إلى ذلك، سيحتاج أنصار الحيطة إلى موازنتها مع المبادئ الهامة الأخرى، أي الموافقة المستنيرة والاستقلال الذاتي.

وأخيرًا، يجدر الانتباه إلى أن الآثار الاجتماعية لتكنولوجيا المعلومات لا تتعلق جميعها بـ الخصوصية (Pieters 2017)، وتشمل الأمثلة على ذلك آثار مواقع الشبكات الاجتماعية على الصداقة، وكذلك إمكانية التحقق من نتائج الانتخابات الإلكترونية. لذلك، ينبغي ألا تركز نُهج التصميم المراعية للقيم وتقييمات أثر تكنولوجيا المعلومات على الخصوصية فقط، لأن تكنولوجيا المعلومات تؤثر أيضًا على الكثير من القيم الأخرى


المراجع

  • Abelson, H., Anderson, R., Bellovin, S. M., Benaloh, J., Blaze, M., Diffie, W., & Rivest, R. L., 2015, “Keys under doormats: mandating insecurity by requiring government access to all data and communications”, Journal of Cybersecurity, 1(1): 69–79.
  • Acar, A., Aksu, H., Uluagac, A. S., & Conti, M., 2018, “A survey on homomorphic encryption schemes: Theory and implementation”, ACM Computing Surveys(CSUR), 51(4): 79.
  • Allen, A., 2011, Unpopular Privacy: What Must We Hide?Oxford: Oxford University Press.
  • Anderson, R.J., 2008, Security Engineering: A guide to building dependable distributed systems, Indianapolis, IN: Wiley.
  • Baars, D., 2016, Towards Self-Sovereign Identity using Blockchain Technology, Ph.D. Thesis, University of Twente.
  • Back, A., U. Möller, & A. Stiglic, 2001, “Traffic analysis attacks and trade-offs in anonymity providing systems”, in Information Hiding, Berlin: Springer, pp. 245–257.
  • Al Badawi, A., Veeravalli, B., Mun, C. F., & Aung, K. M. M., 2018, “High-performance FV somewhat homomorphic encryption on GPUs: An implementation using CUDA”, IACR Transactions on Cryptographic Hardware and Embedded Systems, 2: 70–95. doi: 10.13154/tches.v2018.i2.70-95
  • Bellman, S., E.J. Johnson, & G.L. Lohse, 2001, “On site: to opt-in or opt-out?: it depends on the question”, Communications of the ACM, 44(2): 25–27.
  • Benevenuto, F., T. Rodrigues, M. Cha, & V. Almeida, 2012, “Characterizing user navigation and interactions in online social networks”, Information Sciences, 195: 1–24.
  • M.J., 2013, “The Epistemic Account of Privacy”, Episteme, 10(2): 167–177.
  • Boenink, M., T. Swierstra, & D. Stemerding, 2010, “Anticipating the interaction between technology and morality: a scenario study of experimenting with humans in bionanotechnology”, Studies in Ethics, Law, and Technology, 4(2): 1–38. doi:10.2202/1941-6008.1098
  • Brey, P., 2005, “Freedom and privacy in ambient intelligence”, Ethics and Information Technology, 7(3): 157–166.
  • Broenink, G., J.H. Hoepman, C.V.T. Hof, R. Van Kranenburg, D. Smits, & T. Wisman, 2010, “The privacy coach: Supporting customer privacy in the internet of things”, arXiv preprint4459 [available online].
  • Bruynseels, K & M.J van den Hoven, 2015, “How to do Things with personal Big Biodata”, in B. Roessler and D. Mokrokinska (eds.), Social Dimensions of Privacy: Interdisciplinary Perspectives, Cambridge: Cambridge University Press, pp. 122–40.
  • Cadwalladr, C., and Graham-Harrison, E., 2018, “The Cambridge analytica files”, The Guardian, 21: 6–7.
  • Cavoukian, A., 2009, Privacy by Design, Ottowa: Information and Privacy Commissioner of Ontario, Canada. [Cavoukian 2009 available online(PDF)].
  • –––, 2010, “Privacy by Design: The Definitive workshop”, Identity in the Information Society, 3(2): 121–126.
  • Ceross, A., and A. Simpson, 2018, “Rethinking the Proposition of Privacy Engineering”, in Proceedings of New Security Paradigms Workshop(NSPW ’18, Windsor, UK), New York: Association for Computing Machinery, 89–102. doi:10.1145/3285002.3285006
  • Clarke, R., 2009, “Privacy impact assessment: Its origins and development”, Computer law & security review, 25(2): 123–135.
  • Clarke, I., O. Sandberg, B. Wiley, & T. Hong, 2001, “Freenet: A distributed anonymous information storage and retrieval system”, in Designing Privacy Enhancing Technologies, Berlin: Springer, pp. 46–66.
  • Colesky, M., J.-H. Hoepman, and C. Hillen, 2016, “A critical analysis of privacy design strategies”, IEEE Security and Privacy Workshops(SPW), first online O4 August 2016, doi:10.1109/SPW.2016.23
  • Custers, B., et al., 2018, “Consent and privacy”, The Routledge Handbook of the Ethics of Consent, London: Routledge, pp. 247–258.
  • Dahl, J. Y., & A.R. Sætnan, 2009, “It all happened so slowly: On controlling function creep in forensic DNA databases”, International journal of law, crime and justice, 37(3): 83–103.
  • Danezis, G., C. Diaz, & C. Troncoso, 2007, “Two-sided statistical disclosure attack”, in Proceedings of the 7th international conference on Privacy enhancing technologies, Berlin: Springer, pp. 30–44.
  • DeCew, Judith Wagner, 1997, Pursuit of Privacy: Law, Ethics, and the Rise of Technology, Ithaca, NY: Cornell University Press.
  • Dechesne, F., M. Warnier, & J. van den Hoven, 2013, “Ethical requirements for reconfigurable sensor technology: a challenge for value sensitive design”, Ethics and Information Technology, 15(3): 173–181.
  • Delaune, S., S. Kremer, & M. Ryan, 2006, “Coercion-resistance and receipt-freeness in electronic voting”, in the Proceedings of the 19th IEEE Computer Security Foundations Workshop, IEEE Computer Society Press, pages 28–39. [Delaune et al. 2006 available online]
  • Dingledine, R., N. Mathewson, & P. Syverson, 2004, “Tor: The second-generation onion router”, in Proceedings of the 13th conference on USENIX Security Symposium(Volume 13), Berkeley, CA: USENIX Association, pp. 303–320 [Dingledine et al. 2004 available online (pdf)]
  • Douceur, J., 2002, “The Sybil attack”, in Peer-to-peer Systems, Berlin: Springer, pp. 251–260.
  • Ellison, N. B., 2007, “Social network sites: Definition, history, and scholarship”, Journal of Computer-Mediated Communication, 13(1): 210–230.
  • Evans, N.S., R. Dingledine, & C. Grothoff, 2009, “A practical congestion attack on Tor using long paths”, in Proceedings of the 18th conference on USENIX security symposium, Berkeley, CA: USENIX Association, pp. 33–50. [Evans et al. 2009 available online]
  • Falgoust, M., 2016, “Data Science and Designing for Privacy”, Techné: Research in Philosophy and Technology, 20 (1): 51–68.
  • Floridi, L., 2008, “Artificial intelligence’s new frontier: Artificial companions and the fourth revolution”, Metaphilosophy, 39(4–5): 651–655.
  • Friedewald, M. & O. Raabe, 2011, “Ubiquitous computing: An overview of technology impacts”, Telematics and Informatics, 28(2): 55–65.
  • Friedman, B., P.H. Kahn, Jr, & A. Borning, 2006, “Value sensitive design and information systems”, in Human-computer interaction in management information systems: Foundations, P. Zhang & D. Galletta (eds.), Armonk: M.E. Sharp, 4.
  • Gentry, C., 2009, “Fully homomorphic encryption using ideal lattices”, in Proceedings of the 41st annual ACM symposium on Theory of computing, ACM, pp. 169–178.
  • Goyal, V., O. Pandey, A. Sahai, & B. Waters, 2006, “Attribute-based encryption for fine-grained access control of encrypted data”, in Proceedings of the 13th ACM conference on Computer and communications security, ACM, pp. 89–98.
  • Gürses, S., A. Kundnani, & J. Van Hoboken, 2016, “Crypto and empire: the contradictions of counter-surveillance advocacy”, Media, Culture & Society, 38(4): 576–590.
  • Gutwirth, S. & P. De Hert, 2008, “Regulating profiling in a democratic constitutional state”, in Hildebrandt and Gutwirth 2008: 271–302.
  • den Haak, B., 2012, “Integrating user customization and authentication: the identity crisis”, Security & Privacy, IEEE, 10(5): 82–85.
  • Heersmink, R., J. van den Hoven, N.J. van Eck, & J. van den Berg, 2011. “Bibliometric mapping of computer and information ethics”, Ethics and information technology, 13(3): 241–249.
  • Hildebrandt, M., 2008, “Defining Profiling: A New Type of Knowledge?” in Hildebrandt and Gutwirth 2008: 17–45.
  • Hildebrandt, M. & S. Gutwirth (eds.), 2008, Profiling the European Citizen: Cross-disciplinary Perspectives, Dordrecht: Springer Netherlands.
  • Hoare, T., 2003, “The verifying compiler: A grand challenge for computing research”, in Proceedings of the 12th international conference on Compiler construction, Berlin: Springer, pp. 262–272.
  • Hone, K. & J.H.P. Eloff, 2002, “Information security policy – what do international information security standards say?”, Computers & Security, 21(5): 402–409.
  • van den Hoven, J., 1999, “Privacy and the Varieties of Informational Wrongdoing”, Australian Journal of Professional and Applied Ethics, 1(1): 30–44.
  • –––, 2008, “Information technology, privacy, and the protection of personal data”, in Information technology and moral philosophy, J. Van Den Hoven and J. Weckert (eds.), Cambridge: Cambridge University Press, pp. 301–322.
  • van den Hoven, J., G.J. Lokhorst, & I. Van de Poel, 2012, “Engineering and the problem of moral overload”, Science and engineering ethics, 18(1): 143–155.
  • van den Hoven, J., Vermaas, P., & Van de Poel, I. (eds.), 2015, Handbook of Ethics, Values and Technological Design, Dordrecht: Springer.
  • Karame, G., and Capkun, S., 2018, “Blockchain Security and Privacy”, IEEE Security Privacy, 16(4), 11–12.
  • Ko, M.N., G.P. Cheek, M. Shehab, & R. Sandhu, 2010, “Social-networks connect services”, Computer, 43(8): 37–43.
  • Krishnamurthy, B. & C.E. Wills, 2009. “On the leakage of personally identifiable information via online social networks”, in Proceedings of the 2nd ACM workshop on Online social networks, ACM, pp. 7–12.
  • Lawner, K. J., 2002, “Post-September 11th International Surveillance Activity – A Failure of Intelligence: The Echelon Interception System & (and) the Fundamental Right to Privacy in Europe”, Pace International Law Review, 14(2): 435–480.
  • Leenes, R., and E. Kosta, 2015, “Taming the cookie monster with dutch law-a tale of regulatory failure”, Computer Law & Security Review31(3): 317–335.
  • LeFevre, K., D.J. DeWitt, & R. Ramakrishnan, 2005, “Incognito: Efficient full-domain k-anonymity”, in Proceedings of the 2005 ACM SIGMOD international conference on Management of data, ACM, pp. 49–60.
  • Lessig, Lawrence, 1999, Code and Other Laws of Cyberspace, New York: Basic Books.
  • Loeckx, J., K. Sieber, & R.D. Stansifer, 1985, The foundations of program verification, Chichester: John Wiley & Sons.
  • Matheson, David, 2007, “Unknowableness and Informational Privacy”, Journal of Philosophical Research, 32: 251–67.
  • Mayer, J.R. & J.C. Mitchell, 2012, “Third-party web tracking: Policy and technology”, in Security and Privacy (SP) 2012 IEEE Symposium on, IEEE, pp. 413–427.
  • Michener, J., 1999, “System insecurity in the Internet age”, Software, IEEE, 16(4): 62–69.
  • Motlagh, N. H., Bagaa, M., & Taleb, T., 2017, “UAV-based IoT platform: A crowd surveillance use case”, IEEE Communications Magazine, 55(2): 128–134.
  • Nissenbaum, Helen, 2004, “Privacy as Contextual Integrity”, Washington Law Review, 79: 101–139.
  • Narayanan, A., Bonneau, J., Felten, E., Miller, A., & Goldfeder, S., 2016, Bitcoin and cryptocurrency technologies: a comprehensive introduction, Princeton: Princeton University Press.
  • Negley, G., 1966, “Philosophical Views on the Value of Privacy”, Law and Contemporary Problems, 31: 319–325.
  • OECD, 1980 [2013], The OECD Privacy Framework, 2013, available in PDF; revised and expanded from the original Guidelines on the Protection of Privacy and Transborder Flows of Personal Data, Organization for Economic Co-operation and Development, [1980 version available online]
  • Palmer, D.E., 2005, “Pop-ups, cookies, and spam: toward a deeper analysis of the ethical significance of internet marketing practices”, Journal of business ethics, 58(1–3): 271–280.
  • Pieters, W., 2011, “Explanation and trust: what to tell the user in security and AI?”, Ethics and information technology, 13(1): 53–64.
  • –––, 2013, “On thinging things and serving services: technological mediation and inseparable goods”, Ethics and information technology, 15(3): 195–208.
  • –––, 2017, “Beyond individual-centric privacy: Information technology in social systems” The Information Society, 33(5): 271–281.
  • Pieters, W. & A. van Cleeff, 2009, “The precautionary principle in a world of digital dependencies”, Computer, 42(6): 50–56.
  • Rössler, Beate (ed.), 2004, Privacies: Philosophical Evaluations, Stanford, CA: Stanford University Press.
  • Rössler, Beate, 2005, The value of privacy, Cambridge: Polity Press.
  • –––, 2001 [2005], The Value of Privacy, Cambridge: Polity Press; original German version Der Wert des Privaten, Frankfurt am Main: Suhrkamp Verlag, 2001.
  • Rubel, Alan, 2011, “The Particularized Judgment Account of Privacy”, Res Publica, 17(3): 275–90.
  • Ruiter, J. & M. Warnier, 2011, “Privacy Regulations for Cloud Computing: Compliance and Implementation in Theory and Practice”, in Computers, Privacy and Data Protection: an Element of Choice, S. Gutwirth, Y. Poullet, P. De Hert, and R. Leenes (eds.), Dordrecht: Springer Netherlands, pp. 361–376.
  • Solove, D., 2006, “A Taxonomy of Privacy”, University of Pennsylvania Law Review, 154: 477–564.
  • Som, C., L.M. Hilty, & A.R. Köhler, 2009, “The precautionary principle as a framework for a sustainable information society”, Journal of business ethics, 85(3): 493–505.
  • Song, D.X., D. Wagner, & A. Perrig, 2000, “Practical techniques for searches on encrypted data”, in Security and Privacy, 2000. S&P 2000. Proceedings. 2000 IEEE Symposium on, IEEE, pp. 44–55.
  • Sprenger, Polly, 1999, “Sun on Privacy: ‘Get Over It’”, Wired. [Sprenger 1999 available online]
  • Sweeney, L., 2002, “K-anonymity: A model for protecting privacy”, International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 10(05): 557–570.
  • Tavani, H.T., 2004, “Genomic research and data-mining technology: Implications for personal privacy and informed consent”, Ethics and information technology, 6(1): 15–28.
  • Taylor, L., L. Floridi, and B. Van der Sloot (eds.), 2017, Group privacy: New challenges of data technologies(Philosophical Studies Series: Vol. 126), Dordrecht: Springer.
  • Thomson, Judith Jarvis, 1975, “The Right to Privacy”, Philosophy and Public Affairs, 4: 295–314.
  • Turilli, M. & L. Floridi, 2009, “The ethics of information transparency”, Ethics and Information Technology, 11(2): 105–112.
  • Wang, Y., Wang, J., and Chen, X., 2016, “Secure searchable encryption: a survey”, Journal of Communications and Information Networks, 1(4): 52–65.
  • Warnier, M., Dechesne, F., and Brazier, F.M.T., 2015, “Design for the Value of Privacy”, in J. van den Hoven, P. Vermaas, I. van de Poel (eds.), Handbook of Ethics, Values, and Technological Design, Dordrecht: Springer, 431–445.
  • Warren, Samuel D. & Louis D. Brandeis, 1890, “The Right to Privacy”, Harvard Law Review, 4(5): 193–220. [Warren and Brandeis 1890 available online]
  • Westin, Alan F., 1967, Privacy and Freedom, New York: Atheneum.
  • Yli-Huumo, J., Ko, D., Choi, S., Park, S., and Smolander, K., 2016, “Where is current research on blockchain technology? – a systematic review”, PloS One, 11(10): e0163477. doi:10.1371/journal.pone.0163477
  • Zuboff, S., 2019, The age of surveillance capitalism: the fight for the future at the new frontier of power, London: Profile Books.

أدوات أكاديمية

 

How to cite this entry.

 

Preview the PDF version of this entry at the Friends of the SEP Society.

 

Look up this entry topic at the Internet Philosophy Ontology Project (InPhO).

 

Enhanced bibliography for this entry at PhilPapers, with links to its database.

مصادر الإنترنت الأخرى

مداخل ذات صلة

computer and information ethics | computing: and moral responsibility | ethics: search engines and | information | information technology: and moral values | privacy | social networking and ethics

[1] van den Hoven, Jeroen, Martijn Blaauw, Wolter Pieters, and Martijn Warnier, “Privacy and Information Technology”, The Stanford Encyclopedia of Philosophy (Summer 2020 Edition), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/sum2020/entries/it-privacy/>.