الآلة والأخلاق.. تحديات الذكاء الاصطناعي




بقلم كريستيان رافلاوب


 تُوَفر التقنيات الرَقمية المُترابطة فُرَصَاً كبيرة لِقطاع الاقتصاد والمُجتمع، لكنها تُثير مشاكل أخلاقية في نفس الوقت، كما هو الحال مع تكنولوجيا التَعَرُّف على الوجوه مثلاً. من جانبها، تواجه سويسرا - التي تُعتَبَر إحدى الدول الرائدة في مجال الذكاء الاصطناعي مثل هذه التحديات أيضاً.


فقدان الوظائف بِسَبَب الأتمتة (أو التشغيل الآلي)، وحماية البيانات، والتَعَرُّف على الوجوه، ومقاطع الفيديو المُزيفة (باستخدام تقنية “ديبفيك”)، وإساءة استخدام تقنيات الذكاء الاصطناعي والتقنيات الروبوتية: لا شك بأن الرَقمنة أتَت بعددٍ غير مَسبوق تاريخياً من التحديات الأخلاقية الجديدة.


أحدث مثال على ذلك هو برنامج الدردشة “تشات جي بي تي” ChatGPT ، الذي يعتمد على الذكاء الاصطناعي ويقرع أجراس الإنذار في قطاعات شتى. لقد تردد ذكره كان على شفاه الجميع منذ عرضه في أواخر خريف 2022. فعلى سبيل المثال، يمكنه القيام بعملية الترميز بنفسه أو إصلاح الأخطاء في البرامج المعلوماتية.


مسألة الأخلاق محددة للغاية مع برنامج الدردشة الآلي هذا. لأنه يُمكن بمساعدة البرنامج كتابة نصوص تسويقية وأعمال ضخمة وحتى تأليف كتب كاملة بشكل ذاتي. لذلك، فإن سوء الاستخدام مُرتقب، وهو مثار انزعاج ف يصفوف المدرسين ورجال التعليم.


لكن ماذا لو وَقَعَ الذكاءُ الاصطناعي في الأيدي الخطأ؟ إنه شيءٌ لا يستطيع المَرءُ تخيله حتى. وعلى سبيل المثال، لا تزال دول العالم مُنقَسِمة حول ضرورة فَرض قواعد صارمة لتنظيم استخدام ما يُسمّى بـ ‘الروبوتات القاتلة’. وكانت النتائج بهذا الشأن مُخَيبة للآمال إلى حدٍ كبير بعد محادثات شهدها مقرّ الأمم المتحدة بجنيف في ربيع عام 2022.


ورغم عَدَم وجود أسلحة فتّاكة مُستقلّة بالكامل حتى الآن، إلّا أنَّ النُشطاء يتوقّعون استخدام هذا الجيل من الأسلحة في معارك ميدانية في غضون السنوات القليلة القادمة، نظراً للتقدّم التقني السريع في هذا المجال، والإنفاق المرتفع على الذكاء الإصطناعي وعلى أنواع أخرى من التقنيات فائقة التطور.


تُعتَبَر سويسرا واحدة من الدول الرائدة في مجال تطوير الذكاء الاصطناعي. ويمكن تعريف الذكاء الاصطناعي بأنه قدرة الآلات والحواسيب الرقميّة على القيام بِمَهام مُعينة تُحاكي تلك التي تقوم بها الكائنات الذكيّة؛ كالقُدرة على التفكير أو التَعَلُم من التجارب السابقة وغيرها من العمليات الأُخرى التي تتطلب مُمارسات ذهنية. وتعتمد عملية التَعَلُّم على مُعالجة كميات كبيرة من البيانات التي يتم جَمعَها.


تقوم العديد من الشركات الناشئة في سويسرا بتطوير مثل هذه الأنظمة التكيفية الذكية – سواء كانت في شكل روبوتات أو تطبيقات أو مُساعد رقمي شخصي – والتي من شأنها أن تُسَهِل حياتنا بِفَضل البيانات الضخمة. لكنها في ذلك تجد نفسها باستمرار في مواجهة المُعضِلة الأساسية المُتمثلة بالقضايا الأخلاقية. فأين يتعين على هذه الشركات وَضع خط أحمر مع الحفاظ على هدفها المتمثل ببيع تقنياتها؟


هذه المشكلة تتضح بشكل خاص في التفاعل بين البَحث والتطبيق الملموس. وعلى سبيل المثال، تشارك الجامعات السويسرية أيضاً في مشاريع يمولها الجيش الأمريكي، من كاميرات المراقبة الجوية إلى طائرات الاستطلاع المُسَيَّرة التي يتم التحكم فيها بشكل مُستقل.


الموقف السويسري

تريد سويسرا أن تقوم بدور الريادة في صياغة مستقبل المعايير الأخلاقية المتعلقة بالذكاء الاصطناعي. لكنها تفشل في التعاون مع الدول الأخرى حتى فيما يخص التطبيقات البسيطة.


هذا الأمر حدث مع تطبيق تَتَبُّع الاتصال السويسري “SwissCovid”، الذي يهدف إلى تَتَبُّع واحتواء عدوى فيروس كورونا؛ حيث يدور الخلاف هنا حول وجوب تَخزين البيانات مركزياً [على خادم خارجي واحد] أم على جهاز الهاتف المحمول فقط (مثل الحَل السويسري).


إذن، من أين يمكن لسويسرا أن تبدأ لتولي الدور الرائد المطلوب في المعايير الأخلاقية للذكاء الاصطناعي؟


بفضل مكانتها كدولة محايدة وكمركز أبحاث قوي، تتمتع سويسرا بالقدرة على تحدي الأساليب السائدة في الصين والولايات المتحدة وأن تصبح قطبًا ثالثًا لأبحاث الذكاء الاصطناعي. يقول فيليب فيلهلم، وكرئيس بلدية دافوس: “سويسرا بمثابة مركز للأبحاث لا يتم تنظيمه كشركة أو شركة مملوكة للدولة”.


تحاول المدينة الواقعة في جبال الألب أن تصبح مركزًا محايدًا لتطوير تقنيات قائمة على الذكاء الاصطناعي تكون مسؤولة وشاملة وديمقراطية. يقول فيلهلم: “ما ينقصنا هو نهج محايد ومستقل وإنساني”.


 الشهادة السويسرية للثقة الرقمية (Swiss Digital Trust Label) هي محاولة أخرى بهذا الاتجاه، تهدف إلى تعزيز ثِقة المُستخدمين بالتقنيات الجديدة . والفكرة من وراءِ ذلك هي إتاحة وفرة من المعلومات للمُستخدمين حول الخدمات الرقمية، وخَلْق الشفافية وضمان احترام القيم الأخلاقية.


“في الوقت نفسه، تهدف العلامة التجارية إلى المساعدة في ضمان أن يصبح السلوك الأخلاقي والمسؤول ميزة تنافسية للشركات” أيضاً، كما تقول نينيان بيفّيغَن مديرة المبادرة الرقمية السويسرية التي تقف وراء علامة Swiss Digital Trust Labe.


هناك إجماع واسع على الحاجة إلى وَضع القواعد وتعيين الحدود الأخلاقية بوضوح. تَحقيقاً لهذه الغاية، أنشأت الحكومة السويسرية الفريق العامل المُشترك بين الإدرارات المعني بالذكاء الاصطناعي. وفي نهاية نوفمبر 2020، اعتمدت الحكومة المبادئ التوجيهية للذكاء الاصطناعي التي طورها الفريق تحت قيادة الإدارة الفدرالية للاقتصاد والتعليم البحث العلمي. وتوفر هذه الإرشادات إطاراً توجيهياً للإدارة الفدرالية.


“من المهم بالنسبة لسويسرا استخدام الإمكانيات التي تنشأ عن الاحتمالات الجديدة للذكاء الاصطناعي”، كما جاء في تقرير الفريق العامل المُشترك بين الإدارات المعنية بالذكاء الاصطناعي. تحقيقاً لهذه الغاية، من المهم ضمان أفضل الشروط الإطارية المُمكنة التي تتيح لسويسرا تطوير مكانتها كواحدة من مواقع الابتكار الرائدة في العالم في مجالات البَحث وتطوير وتطبيق الذكاء الاصطناعي. في الوقت نفسه، من المهم أيضاً مُعالجة المَخاطر المُرتبطة باستخدام الذكاء الاصطناعي واتخاذ الإجراءات في الوقت المناسب”.


في أغسطس 2021، قررت الحكومة الفدرالية إنشاء “شبكة كفاءات في مجال الذكاء الاصطناعيرابط خارجي“، وأوضحت أنه سيتم البدء في إقامتها على الفور، على أن تكون جاهزة للبدء في العمل في ربيع عام 2022. ومن المقرر أن تكون الشبكة بمثابة نقطة اتصال لكل ما يتعلق بالتشبيك الداخلي والخارجي للإدارة الفدرالية بالإضافة إلى المسائل ذات الطابع العام في مجال الذكاء الاصطناعي.


مفاهيم أخلاقية مُختلفة

تدعو العديد من الأطراف إلى اعتماد معيار مُلزِم عالمياً. وعلى سبيل المثال، يعالج البرلمان الأوروبي بشكل مُكَثَف مسألة الفُرصَ والمخاطر الناجِمة عن الذكاء الاصطناعي. وفي عام 2018، قدمت مجموعة خبراء أنشأتها المفوضية الأوروبية أول مسودة لمبادئ توجيهية أخلاقيةرابط خارجي بإمكانها أن تميّز الذكاء الاصطناعي الجدير بالثقة. 


وفي شهر ديسمبر 2023، اتفق البرلمان الأوروبي والمفوضية الأوروبية والدول الأعضاء أخيرًا على إطار تنظيمي ملزم لاستخدام الذكاء الاصطناعيرابط خارجي. وهذا هو أول إطار تنظيمي من نوعه على مستوى عالمي.


تهدف هذه اللوائح إلى منع أنظمة الذكاء الاصطناعي التي تشكل “مخاطر غير مقبولة” للمواطنات والمواطنين والديمقراطية. ويشمل ذلك الأنظمة التي تستخدم بيانات شخصية حساسة في التلاعب النفسي والتصنيف الاجتماعي وإعداد ملفات تعريف عرقية وجنسية ودينية.


وصف الاتحاد الأوروبي هذا القرار بأنه “لحظة تاريخية”رابط خارجي. ولكن ماذا عن سويسرا؟ التي لم تتمكن كدولة غير عضوة من المشاركة في تنظيم استخدام الذكاء الاصطناعي.


بشكل عام، توجد هناك بالفعل العديد من البيانات والمبادئ التوجيهية. لكن تحليلاً منهجياً لـ 84 وثيقة ذات صلة أجراه مختبر الأخلاق والسياسة الصحية في المعهد التقني الفدرالي العالي بزيورخرابط خارجي، أظهر خلوها من أي مبدإ أخلاقي مُشترك.


نظراً للاختلافات الكبيرة بين القِيَم الأخلاقية الأساسية التي تَنطَبق في الدول المُختلفة، فمن غير المؤكد تماماً ما إذا كان بالإمكان تحقيق تنظيم موَحَد للذكاء الاصطناعي في السياق الدولي. على أية حال، جاء ذِكر أكثر من خمس قيم أساسية في أكثر من نصف البيانات هي الشفافية، والعدالة والإنصاف، ومنع الضرر، والمسؤولية، وحماية البيانات والخصوصية.


يبدو أن هذه المناقشة محتدمة أيضًا بين عمالقة التكنولوجيا مثل غوغل. فقد أقدمت المجموعة في عام 2021 على فصل اثنين من خبراء الأخلاقيات لديها بعد خلاف. وهو قرار يدعو إلى التساؤل عما إذا كان احترام القواعد الأخلاقية المحيطة بالذكاء الاصطناعي يندرج حقا ضمن الأولويات القصوى للشركات التكنولوجية الكبرى أم لا.


وفي المعهد التقني الفدرالي العالي في زيورخ، يريد مركزٌ جديدٌ للذكاء الاصطناعي الآن التركيز على القيم الأخلاقية الأوروبية على الأقل. وسوف يعمل هذا المركز على تجميع كافة بحوث المعهد العالي في مجال بالذكاء الاصطناعي. وكما قال ألكسندر إيليتش، المدير الإدراي للمركز في مقابلة مع swissinfo.ch، يجب أن يكون الانسان في صميم اهتمام هذه البحوث.


“الشخص الذي يُصمّم شيئاً جديداً يتحمل مسؤولية مُعيّنة أيضاً. لذا من المُهم بالنسبة لنا أن نساعد في تشكيل حوار بهذا الخصوص وأن نُدمج قيمنا الأوروبية في تطوير تطبيقات الذكاء الاصطناعي”، كما يقول.


ربما تكون الحجة الرئيسية لصالح استخدام الذكاء الاصطناعي هي قدرته على تبسيط حياتنا. ويتم هذا بشكل رئيسي من خلال أنظمته التي تساعدنا على توفير الوقت وتولي إنجاز مهام شاقة مثل “تشات جي بي تي” ChatGPT الذي يقوم بها. وفي أفضل السيناريوهات، يمكن أن ينقذ الذكاء الاصطناعي الأرواح؛ على سبيل المثال عند الاستعانة بطائرة إنقاذ بدون طيار بإمكانها الدخول إلى منطق ضيقة جداً يصعب على طائرات الانقاذ العادية الوصول إليها.


ربما تكون أهم حجة لاستخدام الذكاء الاصطناعي هي أنه يمكن أن يبسط حياتنا. بشكل أساسي من خلال أنظمتهم التي تساعدنا على توفير الوقت وتولي المهام الشاقة مثل التي يمكن القيام بها. في أفضل الأحوال ، يمكن للذكاء الاصطناعي أن ينقذ أرواح البشر ، على سبيل المثال بالاشتراك مع طائرة إنقاذ بدون طيار يمكنها العمل في أضيق الأماكن.


بالإضافة إلى ذلك، يُقَدِّر مركز الأبحاث التابع للبرلمان الأوروبي أن بإمكان الذكاء الاصطناعي ان يُساهم بنسبة 1,5 – 4% في تقليل انبعاثات غازات الاحتباس الحراري العالمية بحلول عام 2030. وحسب تقدير أولي، تقارب هذه الكمية جميع الانبعاثات الغازية الناتجة عن الحركة الجوية.


“إن التحديات التي تواجه تحويل النُظُم في مجالات إمدادات الطاقة والتغذية والسكن والتنقل كبيرة”، كما جاء في تقرير الفريق العامل المُشترك بين الإدرارات المعني بالذكاء الاصطناعي.التابع للحكومة السويسرية. وبرأي الفريق، فإن الذكاء الإصطناعي باعتباره تقنية مُتقدمة “سوف يلعب دوراً مهماُ في مواجهة هذه التحديات”.


وكما بات واضحاً خلال هذه السنة، أدى تفشي فيروس كوفيد -19 إلى اعتماد العديد من الخدمات على التقنية الرقمية بين عشية وضحاها تقريباً. وقد أدى ذلك إلى زيادة استخدام تطبيقات الذكاء الاصطناعي في الحياة اليومية، كما في استعمال الروبوتات المتحركة لتطهير الغُرَف في المباني العامة مثل المدارس والمستشفيات.


الخوف من فقدان الوظائف

لكن الذكاء الاصطناعي يتعرض إلى الكثير من الإنتقادات ايضاً. وكان عالم الفيزياء الفلكية الشهير ستيفن هوكينغ قد قال ذات مرة: “الذكاء الاصطناعي هو إما أفضل شيء أو أسوأ شيء يمكن أن يحدث للبشرية على الإطلاق”. وعلى سبيل المثال، يخشى منتقدو ما يسمى بـ “الروبوتات القاتلة” من أن الذكاء الاصطناعي والروبوتات قد لا يُعَرِّض الوظائف للخطر فحسب، ولكن الناس أيضاً.


هذه الشكوك تجد أرضية خصبة داخل المجتمعات ايضاً، حيث يجد قطّاع الصناعة نفسه وسط ثورة بالفعل. فالبيانات الضخمة، والذكاء الاصطناعي، وإنترنت الأشياء، والطابعات ثلاثية الأبعاد وما إلى ذلك، تُغير المَهام المطلوبة من الموظفين، كما أزاد الاعتماد على الآلة في تنفيذ الأعمال البسيطة.


لهذا السبب، من المُتَوَقَّع أن يؤدي استخدام الذكاء الاصطناعي في مكان العمل إلى تقليص عدد الوظائف عاجلاً وليس آجلاً. وكما تُظهِر الأبحاث، يمكن للأنظمة الآلية حالياً إنجاز أكثر من نصف الأعمال التي يقوم به البَشَر بِشَكل أسرَع وأكثر كفاءة.


نتيجة ذلك، يقترح الباحث السويسري زافييه أوبيرسون فَرض ضرائب على الروبوتات في حال تأديتها لوظيفة يقوم بها الانسان في العادة. وبرأيه، ينبغي استثمار الإيرادات المُتأتية من هذه الضريبة في تمويل نظام الضمان الاجتماعي وتدريب العاطلين عن العمل.


على الجانب الآخر، تزداد الشكوك باستمرار بشأن تطبيقات الذكاء الاصطناعي في صفوف المُستهلكين. ولكن، ووفقاً لبعض الدراسات، فإن جلَّ اهتمام هؤلاء ليس بإمكانية قضاء أو سيطرة الذكاء الاصطناعي على البشرية، ولكن بأمن وسلامة بياناتهم الشخصية. لهذا السبب يتعرض المُصنعون لضغوط متزايدة لجعل تقنياتهم شفافة للمستخدمين.


الخبير ألكساندر إيليتش يقدم مثالاً على ذلك من خلال أهداف مركز الذكاء الاصطناعي الذي يديره: “نحن نريد أن نوضح ما يُمكن أن يُحققه الذكاء الاصطناعي في الواقع من خلال التحاور مع عامة الناس. هناك العديد من الأمثلة المَلموسة على ذلك. أن ما يحدث في مجالات الطب والصحة الرقمية بالذات وثيق الصلة بالجميع ويسهل فهمه ويُحدث العديد من التغييرات الإيجابية. لكننا نريد أن نُبين أيضاً أن الذكاء الاصطناعي يساعد الأشخاص ولا يحل محلهم.


.

Previous Post Next Post