تأثير الذكاء الاصطناعي على حرية التعبير في الفضاء الإعلامي المغربي بين التحديات القانونية والأخلاقية (3)
المطلب الثاني: تأثير الذكاء الاصطناعي على حرية التعبير في المغرب
يعد (AI) من بين أبرز التقنيات التي أحدثت ثورة في مختلف جوانب الحياة اليومية، بما في ذلك الإعلام وحرية التعبير، حيث تشهد صناعة الإعلام والنشر في المغرب نموا بطيئا ولكنه ملحوظ، إذ بدأ الذكاء الاصطناعي يلعب دورا متزايدا في تشكيل محتوى المعلومات وتوجيهها، وهذا التقدم التكنولوجي من شأنه أن يثير تساؤلات متعددة حول تأثيره على حرية التعبير.
لذلك، ارتأينا تناول المطلب من خلال الحديث عن تأثير الذكاء الاصطناعي المحتمل على حرية التعبير في المغرب (الفقرة الأولى)، وضرورة التساؤل حول مستقبل هذه الحرية على ضوء تطور الذكاء الاصطناعي (الفقرة الثانية).
الفقرة الأولى: الذكاء الاصطناعي وتأثيره المحتمل على حرية التعبير في المغرب
يعتبر الذكاء الاصطناعي من التقنيات الثورية التي تلقي بتساؤلات حول تأثيرها على مختلف جوانب الحياة، بما في ذلك حرية التعبير. فمع تزايد استخدام هذه التقنيات في الإعلام الدولي والمغربي، تبرز أهمية دراسة وفهم كيفية تأثيرها على حرية التعبير في هذا السياق[1] سيان كان إيجابيا (أولا) أم سلبيا (ثانيا).
أولا: التأثير الإيجابي لاستخدام AI في الإعلام
يمكن للذكاء الاصطناعي أن يؤثر على حرية التعبير بطرق متعددة. فمن جهة، يمكن استخدامه لتسهيل الوصول إلى المعلومات ونشرها، مما يعزز حرية التعبير. وعلى سبيل المثال: يمكن استخدام أدوات الذكاء الاصطناعي لترجمة المحتوى إلى لغات مختلفة، مما يسهل على الأفراد من مختلف الثقافات واللغات الوصول إلى المعلومات والتواصل مع بعضهم البعض. كما يمكن استخدام خوارزميات الذكاء الاصطناعي لتخصيص المحتوى الإخباري طبقا لاهتمامات كل فرد، وهذا يساهم في توفير تجربة إعلامية أكثر دقة وفعالية.[2]
وفي هذا الصدد، نورد أمثلة واقعية من الهند، والتي يستخدم إعلامها أدوات الذكاء الاصطناعي لترجمة الأخبار إلى لغات محلية، مما يساعد في توسيع نطاق وصول المعلومات إلى المجتمعات النائية التي لا تتحدث الإنجليزية أو اللغات الرئيسة الأخرى، إذ من شأن هذه التقنية أن تسهم في تعزيز حرية التعبير عبر توفير محتوى متعدد اللغات.[3] لنجد مبادرة “Bridge” من شركة ZEE Media Corporation التي تعد إحدى أكبر شركات الإعلام في الهند، حيث أطلقت المبادرة لترجمة محتوى الأخبار باللغة الإنجليزية إلى 12 لغة محلية هندية، وذلك لاستخدام تقنيات الذكاء الاصطناعي والترجمة الآلية لتوسيع نطاق الوصول إلى المعلومات. وكذلك هناك منصة “Slanglab” من معهد التكنولوجيا الهندي (IIT) بمومباي، وهي منصة تستخدم الذكاء الاصطناعي لترجمة المحتوى الإخباري إلى 9 لغات هندية محلية، بحيث تم تطوير هذه المنصة بواسطة فريق من باحثي الذكاء الاصطناعي في المعهد بمومباي، لتهدف المنصة بذلك إلى تيسير وصول الجمهور في المناطق القروية والنائية إلى الأخبار والمعلومات.
أما فيما يتعلق بالمغرب، فبعض وسائل الإعلام تقوم باستخدام أدوات الذكاء الاصطناعي لتحليل البيانات والتعرف على المواضيع التي تهم الجمهور، مما يمكنها من تقديم محتوى أكثر ملاءمة وتنوعا، وهذا يعزز قدرة المواطنين على الحصول على معلومات ذات صلة بما يرغبون فيه.[4]
ومن بين هذه المؤسسات نجد “جريدة Le360″، وهي منصة إخبارية بارزة على الأنترنت، تعتمد على أدوات الذكاء الاصطناعي لتحليل بيانات سلوك القراء وتفضيلاتهم. وبناء على هذا التحليل، تقوم الجريدة بتخصيص المحتوى الإخباري والموضوعات المعروضة لكل مستخدم بشكل فردي، مما يضمن حصول القراء على المعلومات الأكثر صلة وملاءمة لاحتياجاتهم. وفي نفس الإطار، تعد “قناة Medi1 TV” واحدة من أكبر القنوات التلفزيونية الوطنية في المغرب، بحيث تعتمد على تقنيات الذكاء الاصطناعي لتحليل التعليقات والتفاعلات على منصاتها الرقمية، ليساعد هذا التحليل في تحديد المواضيع والقضايا التي تهم جمهورها بشكل أكبر. وبناء على هذه البيانات، تطور “ميدي1 تيفي” محتوى إخباريا وبرامج متنوعة تلبي احتياجات المشاهدين وتواكب اهتماماتهم، مما يعزز مشاركة الجمهور ويضمن وصول المعلومات الأكثر أهمية إليهم.
إذن، تظهر هذه الأمثلة كيف يمكن لوسائل الإعلام المغربية استخدام تقنيات الذكاء الاصطناعي لتعزيز حرية التعبير والمشاركة المجتمعية من خلال تقديم محتوى يتناسب مع اهتمامات الجمهور بشكل أكثر دقة وفعالية.
ثانيا: التأثير السلبي لاستخدام AI في الإعلام
إذا كنا قد تحدثنا عن تأثير الذكاء الاصطناعي على حرية التعبير بشكل إيجابي كوجه من عملة، فإن الوجه الثاني يقضي بأن يشكل الذكاء الاصطناعي تهديدا لحرية التعبير في شقه السلبي، خاصة إذا تم استخدامه بطرق غير مسؤولة. إذ من الممكن استخدام خوارزميات الذكاء الاصطناعي لفرض رقابة على المحتوى أو حجب بعض الآراء والأفكار. وعلى سبيل المثال: ربما توجه هذه الخوارزميات لحذف المحتوى الذي يعتبر “غير مرغوب فيه” أو “مسيء” طبقا لمعايير محددة، مما يقيد حرية التعبير ويحد من تنوع الآراء.[5]
كما يمكن للذكاء الاصطناعي أن يؤثر أيضا على تنوع الآراء من خلال فرض “فقاعات المعلومات”[6] التي تعزز التطرف والانقسام. فمع تزايد الاعتماد على خوارزميات الذكاء الاصطناعي في تقديم المحتوى، مما يجعل معه الجمهور عالقا في “فقاعات” تقدم له معلومات تعزز معتقداته المسبقة، وهذا ما يؤدي إلى تقليص التنوع في الآراء وتزايد الاستقطاب.
ففي الصين، تستخدم خوارزميات الذكاء الاصطناعي في مراقبة الأنترنت وحجب المحتويات التي تعتبر حساسة أو تتعارض مع سياسات الحكومة، وهذا التطبيق يؤدي إلى تقييد حرية التعبير وتفشي الرقابة.[7] ومن هذه التطبيقات نورد مثالا عن تطبيق “WeChat” الذي يستخدم خوارزميات الذكاء الاصطناعي في مراقبة الأنترنت وتقييد حرية التعبير، وهو تطبيق متعدد الاستخدامات يتضمن وسائل التواصل الاجتماعي والتراسل الفوري والدفع الإلكتروني، ويستخدم من قبل مئات الملايين من المستخدمين. وعليه، تقوم خوارزميات الذكاء الاصطناعي في التطبيق بمراقبة المحادثات والمحتويات المنشورة، وحجب أو حذف أي محتوى يعتبر حساسا أو يتعارض مع سياسات الحكومة الصينية. ومن ذلك، يتم تلقائيا حظر الكلمات المتعلقة بأحداث مثل مذبحة “ميدان تيانانمن”[8] أو مطالب بالديمقراطية، مما يقيد النقاش حول هذه المواضيع ويعزز الرقابة المفروضة على حرية التعبير داخل البلاد.
وإذا انتقلنا إلى المغرب، نلفي أنه قد تكون هناك مخاوف بشأن استخدام الذكاء الاصطناعي لتصفية أو حذف محتوى على وسائل التواصل الاجتماعي الذي ينتقد الحكومة أو السياسات العامة، مما يعرض حرية التعبير للخطر.[9]
وفي هذا الصدد، أثيرت مخاوف حول استخدام تقنيات الذكاء الاصطناعي في تصفية أو حذف المحتوى على وسائل التواصل الاجتماعي، خاصة فيما يتعلق بالمحتوى الذي ينتقد الحكومة أو السياسات العامة، كما حدث سنة 2020 عندما تم الإبلاغ عن حذف بعض المنشورات التي تنتقد التعامل الحكومي مع جائحة كوفيد-19 على منصات مثل فيسبوك وتويتر (إكس حاليا). وعلى الرغم من أن هذه المنصات تتبع سياسات المحتوى الخاصة بها، فإن استخدام الخوارزميات في مراقبة وحذف المنشورات قد أدى إلى اتهامات بالرقابة وتقييد حرية التعبير، مما أثار قلق بعض النشطاء والصحافيين حول مستقبل النقاش العام عبر الأنترنت في المغرب.
ودائما مع المغرب، هناك مثال حديث يتعلق بحذف المنشورات المتعلقة بالاحتجاجات الاجتماعية، خاصة تلك التي تتناول قضايا حساسة مثل ارتفاع تكاليف المعيشة أو مطالب بتحسين الخدمات العامة، وهو ما حصل سنة 2023، حيث كان هناك حالات تم فيها حذف أو تقييد وصول منشورات على منصات مثل فيسبوك وإنستغرام تنتقد سياسات الحكومة الاقتصادية أو تدعو إلى المشاركة في احتجاجات.[10]
إن هذه الحالات أثارت مخاوف بشأن استخدام الذكاء الاصطناعي في تصفية المحتوى، حيث يمكن أن تؤدي هذه الخوارزميات إلى إسكات أصوات تعبر عن سخط أو استياء من سياسات الحكومة، مما يشكل تهديدا لحرية التعبير ويثير تساؤلات حول مدى شفافية وعدالة هذه التقنيات في إدارة النقاشات العمومية.
كما يمكن أن يؤثر الذكاء الاصطناعي أيضا على حرية الصحافة من خلال تهديد استقلالها وزيادة رقابة الدولة على الإعلام. فمع تزايد الاعتماد على أنظمة الذكاء الاصطناعي في جمع وتحليل المعلومات، يمكن أن يصبح من الصعب على الصحافيين الحصول على معلومات دقيقة وغير محرفة، في زمن أصبح فيه الإعلام أكثر تبعية للأجهزة الحكومية التي تسيطر على مصادر البيانات وتقنيات (AI).
بالإضافة إلى ذلك، ودائما في إطار الآثار السلبية لـ (AI)، يمكن أن يساهم هذا الأخير في انتشار الأخبار الكاذبة والمعلومات المضللة، مما يشكل تهديدا لحرية التعبير والديمقراطية، بل من الممكن استخدام خوارزميات الذكاء الاصطناعي لإنشاء محتوى مزيف يصعب تمييزه عن الحقيقة، مما يساهم في تضليل الرأي العام والتأثير على القرارات السياسية.[11]
وبناء عليه، ففي الولايات المتحدة الأمريكية، كانت هناك تقارير عن استخدام الذكاء الاصطناعي لتوليد أخبار مزيفة خلال الانتخابات، مما أثر على الرأي العام وأدى إلى انقسام مجتمعي.[12] وفي هذا الصدد، برزت تقارير عديدة حول استخدام الذكاء الاصطناعي لتوليد ونشر أخبار مزيفة خلال انتخابات الرئاسة لسنة 2016، وقد تم هذا من خلال استخدام تقنيات مثل “Deepfake” أو الأخبار الزائفة وخوارزميات الذكاء الاصطناعي التي تستطيع إنتاج محتوى نصي ومقاطع فيديو غير حقيقية، لكن يصعب تمييزها عن الأصلية، ومن ذلك استخدام الذكاء الاصطناعي لإنشاء مقالات إخبارية كاذبة ومنشورات على وسائل التواصل الاجتماعي تروج لمعلومات غير دقيقة أو مضللة حول المرشحين والموضوعات السياسية، على أن هذه المنشورات كانت تستهدف مجموعات محددة بناء على تحليل بيانات المستخدمين، وهو ما يعرف بـالتضليل الدقيق،[13] حيث يتم استهداف الجمهور بمحتوى يصمم خصيصا لتأكيد تحيزاتهم أو مخاوفهم.
إن هذه الممارسات من دون شك ساهمت في انتشار واسع للمعلومات الخاطئة، مما أدى إلى تعزيز الانقسامات المجتمعية وزيادة الاستقطاب السياسي، ولا شك في أن هذه الأخبار المزيفة أثرت على الرأي العام وخلقت حالة من الفوضى والتشكيك في العملية الانتخابية، وهو ما اعتبره الكثيرون تهديدا جديا للديمقراطية في الولايات المتحدة.
ومن الأمثلة التي تثير المخاوف بشأن استخدام الخوارزميات في إنشاء أو تعزيز الأخبار المضللة في المغرب،[14] ما حدث خلال فترة الانتخابات التشريعية لسنة 2021، إذ في هذه الفترة، ظهرت تقارير عن تداول واسع لأخبار مضللة على منصات التواصل الاجتماعي حول مرشحين وأحزاب سياسية، حيث تم استخدام تقنيات التلاعب بالمعلومات لإنتاج محتوى يبدو حقيقيا ولكنه مشوه أو مضلل. وعلى إثر ذلك، تم نشر مقاطع فيديو مزيفة تدعي وقوع أحداث معينة خلال الحملات الانتخابية، أو أخبار كاذبة حول تحالفات سياسية غير موجودة، مما أثار بلبلة وأربك الناخبين. وقد كانت هذه الأخبار غالبا تنتشر بسرعة كبيرة عبر خوارزميات وسائل التواصل الاجتماعي التي تعطي الأولوية للمحتوى الأكثر تفاعلا، بغض النظر عن دقته، وهذا النوع من التلاعب أدى إلى تقويض دقة المعلومات المتاحة للجمهور، وأثار مخاوف بشأن تأثير هذه الممارسات على نزاهة الانتخابات والمناقشات السياسية في المملكة.[15]
إذن، ومن كل ما استعرضناه من إيجابيات التأثير وسلبياته التي يحدثها استخدام الذكاء الاصطناعي إعلاميا، يمكننا أن نقول أن المغرب لا تزال تطبيقات الذكاء الاصطناعي في إعلامه في مراحلها الأولى، وعليه أن يستغل الفرصة ليبدأ في التفكير في كيفية استخدام هذه التقنيات بطريقة مسؤولة وأخلاقية تضمن حرية التعبير. كما يجب الإسراع بوضع قوانين وأطر تنظيمية تضمن استخدام الذكاء الاصطناعي بطريقة شفافة وخاضعة للمساءلة، مع مراعاة حقوق الإنسان والحريات الأساسية. كما يجب على المؤسسات الإعلامية والصحافيين الالتزام بأخلاقيات المهنة وضمان عدم استخدام الذكاء الاصطناعي بطرق تقيد حرية التعبير أو تساهم في نشر المعلومات المضللة.[16]
وبتعبير آخر، رأينا أن الذكاء الاصطناعي يشكل سلاحا ذو حدين بالنسبة لحرية التعبير، حيث يمكن استخدامه لتعزيزها أو تقييدها.
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
[1] جليسبي. ت، أهمية الخوارزميات في تكنولوجيات الإعلام: مقالات حول الاتصال والمجتمع، مطبعة معهد ماساتشوستس للتكنولوجيا، الولايات المتحدة الأمريكية، سنة 2014، ص 167-194.
[2] أونيل. ك، أسلحة التدمير الرياضي: كيف تزيد البيانات الكبيرة من عدم المساواة وتهديدا للديمقراطية، دار كراون، الولايات المتحدة الأمريكية، سنة 2016، ص 22 وما يليها.
[3] محمد عبد الظاهر، الذكاء الاصطناعي في الإعلام: الفرص والتحديات، مجلة الدراسات الإعلامية، العدد الأول، المجلد 20، برلين، سنة 2023، ص 18 وما يليها.
[4] محمد بن محمد، الذكاء الاصطناعي وتأثيره على حرية التعبير في العالم العربي، دار النشر القانونية، عمان، الأردن، 2024، ص 67 وما يليها.
[5] زوبوف. ش، عصر الرأسمالية المراقبة: الصراع من أجل مستقبل إنساني على الجبهة الجديدة للسلطة، دار بابليك أفيرز، نيويورك، الولايات المتحدة الأمريكية، سنة 2019، ص 7 وما يليها.
[6] ظهر مصطلح “فقاعات المعلومات” لأول مرة في الأبحاث المتعلقة بتأثيرات الأنترنت ووسائل التواصل الاجتماعي على تفاعل الأفراد مع المعلومات، وتم استخدام هذا المصطلح بشكل متزايد في أوائل العقد الثاني من القرن 21، مع تزايد استخدام الأنترنت ووسائل التواصل الاجتماعي كوسائل رئيسة للحصول على المعلومات.
وقد تم تبني المصطلح للإشارة إلى كيف أن خوارزميات التصنيف والتوصية على الأنترنت يمكن أن تؤدي إلى تقييد نطاق المعلومات المتاحة، مما يعزز الانقسام والتطرف.
ومن أسباب ظهور المصطلح نجد الآتي:
التحليل الإعلامي: مع تطور وسائل الإعلام الرقمية ووسائل التواصل الاجتماعي، لاحظ الباحثون كيف أن خوارزميات التوصية تتسبب في تقديم محتوى يركز على اهتمامات وميول المستخدمين بدلا من تنويع المعلومات.
الانتقائية المعلوماتية: أصبحت المنصات الرقمية تركز على تقديم محتوى يوافق اهتمامات المستخدمين السابقة، مما يساهم في تكوين “فقاعات” معلوماتية.
[7] تقرير منظمة العفو الدولية، حقوق الإنسان في عصر الذكاء الاصطناعي: التحديات والفرص، 2024.
[8] مذبحة “ميدان تيانانمن” (Tiananmen Square Massacre)، هي حادثة وقعت في 4 يونيو 1989 في بكين، الصين. وخلال هذه الأحداث، تم قمع احتجاجات الطلاب والمواطنين المطالبين بالإصلاحات السياسية والديمقراطية في الصين بشكل عنيف عن طريق تدخل الجيش.
[9] خوارزميات الذكاء الاصطناعي والتنوع الإعلامي: دراسة حالة من المغرب، مجلة التكنولوجيا والإعلام، العدد غير محدد، المغرب، 2023، ص 40 وما يليها.
[10] الفضاء الرقمي.. بين حرية التعبير وحدود الحق في نشر المعلومة، مقال منشور على تيل كيل عربي، يوم الإثنين 25 مارس 2024، اطلع عليه بتاريخ 05/09/2024، على الساعى 23:47 ليلا (الرابط مختصر): https://n9.cl/c44lmf
[11] توفكجي. ز، تويتر والغاز المسيل للدموع: قوة وهشاشة الاحتجاجات الشبكية، دار جامعة ييل، نيو هافن، كونيتيكت، الولايات المتحدة الأمريكية، طبعة 2017، ص 33.
[12] O’Reilly. T, Artificial Intelligence and its Impact on Freedom of Expression, Journal of Digital Rights, 2023.
[13] ظهر مصطلح التضليل الدقيق بشكل بارز في مجال الإعلانات السياسية، خصوصا بعد الانتخابات الرئاسية الأمريكية سنة 2016، حيث استخدمت تقنيات مثل التحليل البياني والذكاء الاصطناعي لاستهداف الناخبين بمحتوى مصمم خصيصا ليتوافق مع اهتماماتهم الشخصية وتحيزاتهم. ويستخدم التضليل الدقيق بيانات تحليلية لجمع معلومات حول اهتمامات وسلوكيات الأفراد، مثل بيانات التصفح والأنشطة على وسائل التواصل الاجتماعي، وذلك عبر إنشاء محتوى مخصص يمكن أن يكون إعلانات سياسية، مقاطع فيديو، أو مقالات إخبارية، حيث يقدم إلى الأفراد بطريقة تعزز التحيزات الحالية وتؤثر في آرائهم وسلوكهم التصويتي.
ويمكن أن يؤدي التضليل الدقيق إلى تعزيز الاستقطاب المجتمعي وزيادة الانقسام من خلال نشر معلومات مصممة لزيادة مشاعر القلق أو الغضب، مما يعزز التأثير على نتائج الانتخابات أو الآراء العامة بشأن قضية ما.
[14] Wang. L, The Role of AI in Media Censorship and Freedom, International Communication Gazette, 2024.
[15] محمد مستعد، قراءة في أداء الصحافة المغربية في الانتخابات البرلمانية 2021، مقال منشور على مجلة الصحافة الإلكترونية، معهد الجزيرة للإعلام، بتاريخ 10/03/2021، اطلع عليه بتاريخ 06/09/2024، على الساعة 01:00 ليلا:
https://institute.aljazeera.net/ar/ajr/article/1608
[16] باريسر. إ، فقاعة الفلاتر: ما يخفيه الإنترنت عنك، دار بنغوين، المملكة المتحدة، طبعة 2011، ص 12 وما يليها.