رؤية جديدة لضبط الذكاء الاصطناعي في الإعلام المغربي بين القانون والأخلاق
مع التطور السريع لتكنولوجيا الذكاء الاصطناعي، أصبح للإعلام المغربي فرص غير مسبوقة للاستفادة من هذه التقنيات لتعزيز الأداء الإعلامي وتوسيع نطاق الوصول إلى المعلومات. ومع ذلك، فإن هذه الفرص تأتي مصحوبة بتحديات كبيرة تتعلق بالأطر القانونية والأخلاقية التي يجب أن تنظم استخدام الذكاء الاصطناعي في المجال الإعلامي. وفي ظل هذا التحول الرقمي، يصبح من الضروري إعادة النظر في كيفية ضبط هذا الذكاء لضمان توافقه مع المبادئ القانونية وحماية حقوق الأفراد وحرية التعبير.
وبناء عليه، ينقسم هذا المبحث إلى استعراض التحديات القانونية والأخلاقية التي يمكن أن تنشأ نتيجة استخدام الذكاء الاصطناعي في الإعلام المغربي (المطلب الأول)، كما يقدم رؤية استشرافية لإطار قانوني وأخلاقي يسهم في توجيه الاستخدام المسؤول لهذه التكنولوجيا في الإعلام، بما يحقق التوازن بين الابتكار وحماية القيم الأساسية (المطلب الثاني).
المطلب الأول: الذكاء الاصطناعي في الإعلام المغربي بين التحديات القانونية والأخلاقية
كما سبق ووقفنا عليه، فإن الإعلام المغربي يشهد تطورا سريعا مع دخول الذكاء الاصطناعي في مختلف مراحله، حيث ساهمت هذه التقنية في تحسين طرق جمع المعلومات وتقديم المحتوى. إلا أن هذا التحول يرافقه العديد من التحديات القانونية والأخلاقية التي تتعلق بحرية التعبير وحقوق الأفراد. وفي هذا السياق، يصبح من الضروري استكشاف تأثير الذكاء الاصطناعي على الإعلام المغربي، لا سيما فيما يتعلق بتوازن استخدامه مع الحفاظ على القيم القانونية (الفقرة الأولى) والأخلاقية (الفقرة الثانية) التي تضمن حقوق الإنسان وتحمي حرية التعبير.
الفقرة الأولى: التحديات القانونية لاستخدام الذكاء الاصطناعي في الإعلام
يواجه استخدام الذكاء الاصطناعي في الإعلام عدة تحديات قانونية جوهرية، أولها: قضية حقوق الملكية الفكرية، حيث أثارت قدرة الذكاء الاصطناعي على إنتاج المحتوى تساؤلات حول ملكية هذا المحتوى. ففي الولايات المتحدة، قضت المحكمة الفيدرالية بأن الأعمال التي ينتجها الذكاء الاصطناعي لا يمكن حمايتها بحقوق الطبع والنشر.[1]
ثانيا: تبرز مسألة المسؤولية القانونية في حالة نشر معلومات خاطئة أو مضللة بواسطة أنظمة الذكاء الاصطناعي، حيث يناقش حاليا البرلمان الأوروبي مشروع قانون متعلق بالمسؤولية المدنية عن الذكاء الاصطناعي لمعالجة هذه المسألة.[2]
ثالثا: تشكل قضايا الخصوصية وحماية البيانات تحديا كبيرا، خاصة مع قدرة أنظمة الذكاء الاصطناعي على جمع وتحليل كميات هائلة من البيانات الشخصية. وفي هذا السياق، يفرض قانون حماية البيانات العامة في الاتحاد الأوروبي قيودا صارمة على جمع ومعالجة البيانات الشخصية.[3]
وأخيرا، تبرز قضية الشفافية والمساءلة، حيث غالبا ما تكون عمليات صنع القرار في أنظمة الذكاء الاصطناعي غير شفافة. قفي فرنسا، يلزم قانون الجمهورية الرقمية الإدارات العامة بالشفافية في استخدام الخوارزميات.[4]
الفقرة الثانية: التحديات الأخلاقية لاستخدام الذكاء الاصطناعي في الإعلام
على الصعيد الأخلاقي، يثير استخدام الذكاء الاصطناعي في الإعلام عديد إشكاليات، أولها: قضية التحيز وعدم التمييز، حيث قد تعزز أنظمة الذكاء الاصطناعي التحيزات الموجودة، ويتضح ذلك جليا في تحذير لجنة الحقوق المدنية الأمريكية من مخاطر التحيز في أنظمة الذكاء الاصطناعي المستخدمة في الإعلام.[5]
ثانيا: تطرح مسألة الأصالة والمصداقية إشكالا كبيرا، خاصة مع ظهور تقنيات مثل الأخبار الزائفة التي تجعل من الصعب التمييز بين المحتوى الأصلي والمزور. لذلك، تم إصدار لوائح تحظر استخدام الذكاء الاصطناعي لإنتاج أخبار كاذبة في الصين.[6]
ثالثا: يمكن أن يؤثر استخدام الذكاء الاصطناعي على حرية التعبير، حيث يمكن استغلاله لتعزيز الرقابة. ففي روسيا، تم توثيق حالات استخدام الذكاء الاصطناعي لفرز المحتوى على وسائل التواصل الاجتماعي.[7]
وأخيرا، يثير التأثير المحتمل للذكاء الاصطناعي على سوق العمل في قطاع الإعلام مخاوف أخلاقية، خاصة بعدما بدأت بعض وكالات الأنباء باليابان في استخدام الذكاء الاصطناعي لكتابة التقارير الإخبارية البسيطة، مما قد يؤدي إلى فقدان وظائف في هذا القطاع.[8]
ولمواجهة هذه الإشكالات المطروحة، تتخذ كثير من الدول عددا من الإجراءات، كما في كندا، التي أطلقت حكومتها مبادرة “الذكاء الاصطناعي المسؤول” لوضع معايير أخلاقية لاستخدام الذكاء الاصطناعي في مختلف القطاعات.[9] وفي ألمانيا، تم إنشاء “لجنة أخلاقيات البيانات والذكاء الاصطناعي” لتقديم توصيات بشأن الاستخدام الأخلاقي للذكاء الاصطناعي.[10]
[1] محكمة المقاطعة الأمريكية لمقاطعة كولومبيا، ثالر ضد بيرلموتر، القضية رقم 1:22-cv-01564-BAH.، سنة 2023. للاطلاع على تفاصيل القضية ادخل على: www.courtlistener.com، وابحث عن الملف باستخدام رقمه: 1:22-cv-01564-BAH.
[2] البرلمان الأوروبي، مسودة تقرير حول نظام المسؤولية المدنية للذكاء الاصطناعي، سنة 2023، اطلع عليه بتاريخ 05/09/2024، على الساعة 13:54 زوالا: www.europarl.europa.eu/doceo/document/RE-732053_EN.html
[3] الاتحاد الأوروبي، اللائحة العامة لحماية البيانات (GDPR)، سنة 2016، وهي سارية المفعول منذ 25 ماي 2018، اطلع عليه بتاريخ 01/09/2024، على الساعة 22:15 ليلا:
https://eur-lex.europa.eu/legal-content/AR/TXT/?uri=CELEX%3A32016R0679
[4] الجمهورية الفرنسية، قانون من أجل جمهورية رقمية، سنة 2016، والنص الكامل للقانون متاح عبر الموقع الرسمي للوثائق القانونية الفرنسية: www.legifrance.gouv.fr/jorf/id/JORFTEXT000033202746
[5] لجنة الحقوق المدنية الأمريكية، الآثار المترتبة على الحقوق المدنية للذكاء الاصطناعي، سنة 2022، اطلع عليه بتاريخ 02/09/2024، على الساعة 14:05 زوالا: www.aclu.org
[6] إدارة الفضاء الإلكتروني الصينية، لوائح خدمات المعلومات العميقة على الأنترنت، سنة 2023، اطلع عليه بتاريخ 31/08/2024، على الساعة 00:12 ليلا: www.cac.gov.cn
[7] منظمة فريدوم هاوس، الحرية على الأنترنت في روسيا، تقرير 2023، اطلع عليه بتاريخ 31/08/2024، على الساعة 12 زوالا:
https://freedomhouse.org/country/russia/freedom-net/2023
[8] معهد أبحاث الصحافة اليابانية، التقرير السنوي عن صناعة الأخبار اليابانية، تقرير 2023، اطلع عليه بتاريخ 05/09/2024، على الساعة 15:44 زوالا: https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2024/japan
[9] الحكومة الكندية، استراتيجية الذكاء الاصطناعي المسؤول، سنة 2022، اطلع عليه بتاريخ 05/09/2024، على الساعة 19 مساء:
https://ised-isde.canada.ca/site/ised/en/artificial-intelligence-ecosystem
[10] وزارة الشؤون الاقتصادية وحماية المناخ الألمانية، تقرير لجنة أخلاقيات البيانات، سنة 2021، اطلع عليه بتاريخ 01/09/2024، على الساعة 15:11 زوالا:
www.bmwk.de/Redaktion/DE/Schlaglichter-der-Wirtschaftspolitik/2024/09/04-finanzierung-saubere-technologien.html