Blog

كيف يمكن للذكاء الاصطناعي التوليدي أن يساعد في الدفاع عن حقوق الإنسان؟ | تأملات في الاستخدام المسؤول لأدوات الذكاء الاصطناعي لإنشاء وتعديل الصور والفيديو والصوت

كتبت شرين ألان وريكال فازكيز ليورنت

متاح بالانجليزية

في WITNESS لدينا إيمان عميق في قوة التقنيات السمعية والبصرية للدفاع عن حقوق الإنسان. إلى جانب عملنا المستمر لترسيخ فهمنا لأضرار الذكاء الاصطناعي ووسائط الإعلام الاصطناعية بالنسبة للمجتمعات المتعرضة للتضليل. ندرك إمكانية استخدام الذكاء الاصطناعي لانتاج مواد من الصفر لدعم الدفاع عن حقوق الإنسان ولكن ذلك يتطلب حذرًا واعتبارات أخلاقية.

فريق التهديدات والفرص التكنولوجية لدينا يستكشف بعض أدوات الذكاء الاصطناعي التي يمكن أن تنشئ أو تعدل محتوى سمعي بصري والتي تتوفر حاليًا للجمهور. – مثلاً، تقنيات يمكن أن تولد مواد بصرية اصطناعية تمامًا من أي نص مكتوب. يمكن أيضًا للمستخدمين تحرير أجسام معينة داخل صورة مصدرها الذكاء الاصطناعي أو صورة حقيقية تم تحميلها بواسطة المستخدم. 

يمكن للشبكات العميقة أن تتعرف على أنماط في البيانات لاستبدال أسلوب أو صورة شخص بآخر، فضلاً عن تجزئة صورة إلى أجزاء متعددة بناءً على معايير محددة مثل اللون أو الجسم. يمكن أيضاً أن تقوم أدوات الذكاء الاصطناعي أن تقلد أي صوت تم تدربيهم عليه.

استنادًا إلى هذه التجربة واستشاراتنا العالمية الأخرى، يستعرض هذا المقال السيناريوهات التي نرى فيها الذكاء الاصطناعي الإنتاجي السمعي البصري يدافع عن حقوق الإنسان. يعكس المقال أيضًا القضايا الأخلاقية التي يمكن أن يُثير استخدام تقنيات معينة في منظمة حقوق الإنسان، بالإضافة إلى تقديم قائمة من الأسئلة التي يجب مراعاتها عند تطبيق هذه الأدوات. ندرك أن التطورات في هذا المجال من الذكاء الاصطناعي تحدث بسرعة، ورؤيتنا قد تتطور مع هذه التطورات وتتغير في المستقبل.  نأمل أن تساعد مشاركة بعض توصياتنا في هذه المرحلة المجموعات المماثلة التي قد تقوم بتطوير سياساتها الداخلية الخاصة.  ونرحب بتعليقاتكم على mena@witness.org

الاعتبارات الرئيسية: تقييض وثائق حقوق الإنسان، الشفافية في الإنتاج، الموافقة، وتوقعات السياق

يجب ألا يقوض استخدام الذكاء الاصطناعي في إنشاء أو تحرير وسائط مصداقية وسلامة ومحتوى منظمات حقوق الإنسان الأخرى والصحفيين ومجموعات التحقق والتوثيق. في الاستشارات العالمية التي قدمناها منذ عام 2018، تواصلنا الاستماع بشكل مستمر إلى شكاوى المجتمعات التي تدافع عن حقوق الإنسان حول كيفية تقويض محتواهم ومصداقيتهم. مع توفر أدوات لإنشاء صور وفيديوهات وصوت عن طريق الذكاء الاصطناعي. سيكون من السهل على الحكومات والشركات بالزعم بأن اللقطات المأخوذه مزيفة. عند إنشاء أو تعديل المحتوى المرئي باستخدام الذكاء الاصطناعي من المهم التفكير في دور المنظمات العالمية لحقوق الإنسان في وضع المعايير واستخدام الأدوات بطريقة لا تسبب ضررًا جانبيًا للمجموعات المهمشة التي تواجه ضغوطًا بالفعل كثيرة. هذه المجموعات مستفذة بالفعل في محاولة الدفاع عن لقطاتهم أو تحدي المعلومات الكاذبة وهي مستهدفة بشكل متكرر من قبل حكوماتها للتشكيك في مصداقيتها.

يجب أن نكون شفافين بشأن استخدام الذكاء الاصطناعي في إنشاء المحتوى. يجب أن نسمي المحتوى الذي تم إنشاؤه أو تعديله باستخدام الذكاء الاصطناعي بوضوح، ووضع علامة مائية عليه، وربما تضمين بيانات الوصف أو بصمات غير مرئية لتتبع أصل المحتوى. يجب أن يكون هذا المحتوى مرئيًا للجميع ويمكن قراءته وسماعه وفهم ما إذا تم إنشاؤه أو تعديله باستخدام الذكاء الاصطناعي.

نحن ندعم بشدة اتباع نهج مبتكر ومبني على المبادئ في تسمية المحتوى. يجب أن تعبر طريقة تسمية المحتوى عن أفكار معقدة وتوفر للجمهور سياقًا ذا دلالة عميقة حول كيفية إنشاء المحتوى أو تعديله باستخدام الذكاء الاصطناعي. في أفضل الحالات، يجب أن تعبر هذه الطرق المتسمة بالشفافية أيضًا عن النية وراء استخدام الذكاء الاصطناعي. عند استخدام أدوات مفتوحة المصدر، يمكن أن توفر بصمات غير مرئية (مثل البيانات الوصفية) مستويات أعلى من الشفافية والقدرة على تتبع أصل قطعة الوسائط. ومع ذلك، يتطلب تنفيذ هذه التقنيات المعرفة التقنية المتقدمة. 

من المهم الحصول على موافقة الأشخاص الذين تم تصويرهم في المحتوى السمعي البصري الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. ومع ذلك، هناك بعض الاستثناءات. على سبيل المثال، قد لا تتطلب السخرية السياسية موافقة الموضوع إذا كانت تهدف إلى انتقاد السلطة أو سخافات الأنظمة التي تعزز عدم المساواة.

يمكن لمنظمات حقوق الإنسان الاستفادة من المبادئ التوجيهية الحالية حول الموافقة المستنيرة في المحتوى المرئي. كما يمكنهم الاستفادة من الممارسات الجيدة في التعامل مع المواقف أو الفئات السكانية التي تتطلب اهتمامًا خاصًا، مثل لقطات تتضمن قاصرين، أو أشخاصًا ذوي إعاقات عقلية، أو أشخاص خاضعين لسياقات قسرية، أو مرتكبي الجرائم من سوء المعاملة

تعتمد توقعات الصحة ومدى التلاعب في المحتوى المرئي على السياق الذي يتم فيه إنتاجه ونوع اللقطات. على سبيل المثال، يمكن أن تكون الأفلام الروائية والخيالية حول حقوق الإنسان مناسبة للتعبير الفني الذي يساعد الناس على التواصل مع مواضيع صعبة. ومع ذلك، يُفترض أن التقارير الحقوقية الواقعية التي تكشف عن سوء المعاملة دقيقة وصحية وواقعية. قد تتغير هذه التوقعات مع مرور الوقت، خاصة عندما يتم إعادة النظر في اللقطات أو استخدامها لأغراض مختلفة عن تلك التي تم إنشاؤها من أجلها.

من المهم أن تكون شفافًا بشأن إنشاء وتعديل المحتوى المرئي، وأن تكون حريصًا على الحصول على موافقة الأشخاص الذين تم تصويرهم. سيساعد ذلك في تجنب المساهمة في نشر المعلومات الخاطئة وتشويه الصورة، وحماية المجتمعات والأفراد من الأذى.

حالات الاستخدام المحتملة واعتباراتها الأخلاقية – أفكارنا الحالية:

1 – حماية الهوية

يمكن استخدام الذكاء الاصطناعي لإخفاء هوية الأفراد أو حماية هوياتهم. يمكن أن تساعد المرشحات مثل التعتيم أو البكسل أو تعديلات الصوت المطبقة على الأفراد أو الأماكن في إنشاء تمويه رقمي للصور والصوت. يمكن أن تستخدم هذه الأدوات لحماية الأفراد من الضرر أو المضايقات.

يمكن أيضًا استخدام الذكاء الاصطناعي للتطبيقات الإبداعية التي تحمي الأفراد وتشارك مع الجمهور. على سبيل المثال، تم استخدام أساليب التزييف العميق في الفيلم الوثائقي “مرحبًا بكم في الشيشان” لإظهار تجارب الأشخاص الذين يخشون التعرض للاضطهاد. يمكن أن تكون هذه الأدوات مفيدة، ولكن فقط عند اتباع الإرشادات المذكورة أعلاه بشأن الكرامة والشفافية والموافقة.

يمكن أن تؤدي أدوات الذكاء الاصطناعي الحالية إلى نتائج غير إنسانية، مثل تعزيز التحيزات الاجتماعية والعرقية والقائمة على النوع الاجتماعي، وإنتاج أخطاء بصرية تصور أجسادًا بشرية مشوهة. لذلك، من المهم أن تتمتع أي عملية تستخدم الذكاء الاصطناعي لحماية الهوية دائمًا برعاية بشرية وإشراف دقيقين، إلى جانب فهم عميق للمجتمع والجمهور الذي تخدمه.

فيما يلي بعض الأسئلة التي يمكن أن تساعد في توجيه استخدام الذكاء الاصطناعي لحماية الهوية:

  • من هم الأشخاص الذين تم تمثيلهم وما هي المجموعات التي ينتمون إليها؟
  • ما هو القصد من المحتوى؟
  • هل هناك موافقة مستنيرة من الفرد / الأشخاص الذين تم تصويرهم أو مشاركتهم في المحتوى السمعي البصري؟ إذا لا فلماذا؟
  • إذا لم يكن استخدام الذكاء الاصطناعي لحماية الهوية واضحًا (على سبيل المثال، في حالة استخدام استنساخ الصوت) ، فهل تم الكشف عن التعديل للجمهور بوضوح؟
  • هل يمكن عكس أسلوب التقنيع وكشف الهوية الحقيقية للفرد أو الصورة التي تقف خلفه؟
  • هل تحافظ اللقطات الناتجة على كرامة الفرد / الأفراد؟
  • هل تعزز اللقطات الناتجة عن غير قصد أو بشكل مباشر التحيزات الموجودة في مجموعات بيانات الذكاء الاصطناعي التوليدية؟

٢ – تصور شهادات الناجين والضحايا والشهود أو إعادة بناء الأماكن والأحداث من الشهادات

يمكن أن تقوم بمحتوى تعبيري وفني لتصوير الشهادات بطريقة أخلاقية ومناسبة، طالما تم استيفاء شروط معينة. هناك تاريخ غني من الرسوم المتحركة وأشكال رواية القصص الوثائقية البديلة، ويمكن للذكاء الاصطناعي أن يساعد في تطوير الأشكال السمعية والبصرية التي تنقل القصص بشكل فعال وتشرك الجماهير لأغراض الدعوة. يمكن استخدام أدوات الذكاء الاصطناعي مثل تحويل النص إلى صورة، والنص إلى الفيديو، واستيفاء الإطارات لإنشاء مرئيات للشهادات الصوتية والنصية التي تفتقد إلى الصور ومحتوى الفيديو لإظهار المشاعر الكامنة والنصوص الفرعية للتجربة. ومع ذلك، يجب الإشارة بوضوح إلى أن هذه المرئيات تهدف إلى أن تكون تعبيرًا فنيًا وليس تمثيلًا صارمًا كلمة بكلمة.

يمكن استخدام الذكاء الاصطناعي لتصوير وإعادة بناء الأماكن لأغراض المناصرة. على سبيل المثال، عندما يتعذر الوصول إلى الأماكن المادية لأسباب أمنية أو تم تدميرها، يمكن لتقنيات الذكاء الاصطناعي مثل توليف المشاهد الحجمية أو من صورة إلى فيديو، أن تمكن الجماهير من تصور موقع ذي أهمية تاريخية أو الظروف التي يمر بها مجتمع معين في مكان معين (على سبيل المثال ظروف الاحتجاز). وبالمثل، يمكنهم مساعدتنا في تخيل الحقائق والمستقبلات البديلة، مثل الدمار البيئي. ومع ذلك، من المهم الإشارة إلى كيفية إنشاء هذه المرئيات، ويجب أن يتطابق استخدام الذكاء الاصطناعي دائمًا مع أهداف الدعوة وأن يستند إلى معلومات تم التحقق منها.

يتطلب استخدام الذكاء الاصطناعي “لإحياء” الموتى نهجًا دقيقًا ولا ينبغي القيام به بطريقة مزعجة. تثير إعادة الأفراد المتوفين “إلى الحياة” العديد من التحديات الأخلاقية حول الموافقة، واستغلال الموتى، وإعادة إيذاء الأسرة والمجتمع الناجين. قد يؤدي إنشاء تمثيلات واقعية باستخدام الذكاء الاصطناعي، والتي تستخدم صورة شخص ما (مثل الصورة و / أو الصوت) ، إلى تكرار الأذى والإساءة التي عانى منها الفرد أو مجتمعه في المقام الأول. من ناحية أخرى، يمكن أن يساعد الاستخدام الدقيق للذكاء الاصطناعي في تمثيل حقائق بديلة أو إعادة رسالة شخص ما، ويكون له تأثير قوي في الدعوة. عند استخدام أدوات الذكاء الاصطناعي لهذه الأغراض، من الأهمية بمكان مراعاة الآثار القانونية ؛ تتضمن موافقة صارمة من الأقارب أو المجتمع أو غيرهم حسب الثقافة والسياق والمخاطر ؛ التفكير في احترام ذاكرة الفرد والإفصاح بوضوح عن استخدام الذكاء الاصطناعي.

لا يجب استخدام الذكاء الاصطناعي لتوليد البشر والأحداث حيث توجد لقطات واقعية ويمكن الحصول عليها. نفصل استخدام الذكاء الاصطناعي لتطبيق تأثيرات أو تعديلات معينة على الوجه أو الشكل أو الصوت، عن استخدام الذكاء الاصطناعي لإنشاء صور لحدث مهم بأكمله يحتوي على لقطات فعلية. يعرض المصورون الصحفيون والمدافعون عن حقوق الإنسان وفرق التوثيق سلامتهم للخطر لتغطية الأحداث وجمع المعلومات القيمة. يمكن لعملهم كشف الانتهاكات، وجمع الأدلة على الجرائم، أو التواصل مع الجماهير. في عالم تتفشى فيه المعلومات الخاطئة والمضللة، فإن استخدام الذكاء الاصطناعي لإنشاء محتوى مرئي يأخذنا بعيدًا عن الأدلة الحقيقية ويقوض قدرتنا على مكافحة انتهاكات حقوق الإنسان والفظائع. الأهم من ذلك، في هذه المواقف، يتوقع الجمهور تلقي معلومات حقيقية حول أحداث حقيقية.

 لا ينبغي استخدام الذكاء الاصطناعي لتعديل الكلمات أو نبرة شهادات الناجين والضحايا والشهود. عند استخدام الشهادات المكتوبة أو المرئية لأغراض المناصرة، فإن تطبيق الذكاء الاصطناعي لتحرير المواد يمكن أن ينتج عنه أخطاء وتغييرات في اللهجة والمعنى. يتطلب تفسير هذه الشهادات مستوى من الحساسية والفهم للموضوع والغرض من المواد التي لا تقع ضمن قدرات الذكاء الاصطناعي.

فيما يلي بعض الأسئلة التي يمكن أن تساعد في توجيه استخدام الذكاء الاصطناعي لتصور الشهادات أو إعادة بناء الأماكن والأحداث من البيانات:

  • هل توجد معلومات واقعية يمكن استخدامها لشرح حدث ما؟ إذا لم يكن الأمر كذلك، فهل يؤدي استخدام الذكاء الاصطناعي إلى تقويض مصداقية أولئك الذين يحاولون جمع وتبادل المعلومات حول هذا الوضع بالذات؛ وبشكل أعم، تحاول منظمات ونشطاء حقوق الإنسان والمجتمع المدني مشاركة معلومات جديرة بالثقة؟
  • ما هو الغرض من إعادة بناء موقع معين، وما هي المعلومات المتوفرة؟
  • ما هو مستوى الدقة الذي يتوقعه الأشخاص الذين يشاهدون التصور أو إعادة البناء؟ هل هناك طريقة لتوصيل الفجوات الموجودة بين المعلومات الواقعية والنتيجة الناتجة؟
  • هل تم الكشف بوضوح عن استخدام تقنيات وأدوات الذكاء الاصطناعي ، جزئيًا أو كليًا؟
  • هل تم التحقق من الدقة الواقعية ونبرة المخرجات من قبل الإنسان ، أم يمكن أن يكون كذلك؟

٣ – الهجاء والتعبير الفني

يمكن أن يكون استخدام الذكاء الاصطناعي في السخرية والمحاكاة الساخرة قويًا خاصةً عندما يكون القصد من ذلك هو فتح محادثات حول عدم المساواة والظلم وديناميكيات القوة الأخرى. ركزت منظمة WITNESS بشكل مكثف على الأسئلة المتعلقة بكيفية الموازنة بين مكافحة المعلومات الخاطئة والمضللة مع احترام حرية الرأي والتعبير. 

على هذا النحو، من المهم حماية الاستخدام الساخر والفني للوسائط التركيبية والذكاء الاصطناعي التوليفي في السياقات السياسية والاجتماعية بما يتماشى مع المعايير الدولية لحقوق الإنسان (كما تمت مناقشته في تقرير Just Joking! ، بالتعاون مع Co-Creation Studio في معهد ماساتشوستس للتكنولوجيا). في هذه التطبيقات ، يعد وضع العلامات الواضحة أو وضع العلامات المائية أو الكشف عن كيفية صنع الوسائط وتغييرها أمرًا أساسيًا لتجنب تقديم المحتوى الضار بعد وقوع الحدث على أنه ساخر ، أو إذا فقد المحتوى الساخر سياقه وأعيد استخدامه لأغراض ضارة. يجبرنا استخدام الذكاء الاصطناعي لهذه الأغراض أيضًا على التفكير في مفهومنا للكرامة الرقمية وحقوق التشابه ، بالإضافة إلى فهمنا للموافقة.

  أسئلة للمساعدة في توجيه استخدام الذكاء الاصطناعي للتعبير الساخر والفني:

ما مدى سهولة تحرير العلامة المائية؟

قد يكون من السهل تحرير العلامة المائية من صورة أو مقطع فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي. يمكن القيام بذلك باستخدام برنامج تعديل الصور أو الفيديو أو عن طريق أخذ لقطة شاشة للمحتوى ثم تحرير العلامة المائية من اللقطة.

ما هي مخاطر “انهيار السياق” (أي إذا تم تداول الصورة أو مقطع الفيديو خارج السياق)؟ ما هي الطرق التي يمكن للجمهور من خلالها تتبع مصدر المحتوى إلى المنشئ / المصنّعين ، و / أو أداة الذكاء الاصطناعي التي تم استخدامها لإنشاء الصورة أو الفيديو (مثل بصمات الأصابع غير المرئية)؟ هل يمكن أن تعرض البيانات الوصفية للمصدر شخصًا ما للخطر؟

يمكن أن يكون “انهيار السياق” مشكلة إذا تم تداول صورة أو مقطع فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي خارج السياق. على سبيل المثال، إذا تم إنشاء صورة لرئيس دولة تم استخدامها في دعاية سياسية، فقد يعتقد الجمهور أن الرئيس قد قال أو فعل شيئًا لم يقله بالفعل. يمكن أن تؤدي هذه المعلومات المضللة إلى مشاكل، مثل إثارة الاضطرابات الاجتماعية أو حتى الحرب.

هناك عدد من الطرق التي يمكن للجمهور من خلالها تتبع مصدر المحتوى إلى المنشئ / المصنّعين، و / أو أداة الذكاء الاصطناعي التي تم استخدامها لإنشاء الصورة أو الفيديو. يمكن القيام بذلك عن طريق البحث عن بصمات الأصابع غير المرئية التي قد تكون موجودة في المحتوى، أو عن طريق الاتصال بالمنشئ مباشرة. ومع ذلك، قد يكون هذا صعبًا، خاصةً إذا تم إنشاء المحتوى بعناية لإخفاء بصمات الأصابع غير المرئية.

يمكن أن تعرض البيانات الوصفية للمصدر شخصًا ما للخطر إذا تم تداولها بشكل غير صحيح. على سبيل المثال، إذا تم نشر البيانات الوصفية لصورة شخص ما على الإنترنت دون موافقته، فقد يتمكن شخص ما من استخدامها لتعقبه أو مضايقته.

هل يقتصر المحتوى على تصوير شخصية عامة أم أنه يصور أيضًا أشخاصًا آخرين؟ إذا كان الأخير، فكيف تم الحصول على اللقطات، وهل هناك موافقة على استخدام شكلها أو صوتها في محتوى تم إنشاؤه أو التلاعب به بواسطة الذكاء الاصطناعي؟

قد لا يقتصر المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على تصوير شخصية عامة. يمكن أن يصور أيضًا أشخاصًا آخرين، بما في ذلك الأشخاص الذين لم يوافقوا على استخدام صورهم أو أصواتهم. من المهم الحصول على موافقة من جميع الأشخاص الذين يتم تصويرهم أو سماعهم في المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.

كيف يتعارض المحتوى مع القانون الدولي لحقوق الإنسان والمعايير الأخرى المعترف بها التي تتناول حرية التعبير والكرامة والخصوصية؟

يمكن أن يتعارض المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي مع القانون الدولي لحقوق الإنسان والمعايير الأخرى المعترف بها التي تتناول حرية التعبير والكرامة والخصوصية. على سبيل المثال، يمكن استخدام المحتوى لتوليد صور أو مقاطع فيديو للأشخاص دون موافقتهم، والتي يمكن استخدامها بعد ذلك للمضايقة أو التشهير أو غيرها من الانتهاكات. يمكن أيضًا استخدام المحتوى لإنشاء صور أو مقاطع فيديو مسيئة أو ضارة، والتي يمكن أن تنتهك الكرامة الإنسانية.

من المهم أن نكون على دراية بالتحديات الأخلاقية التي يثيرها الذكاء الاصطناعي التوليدي وأن نتخذ خطوات لتجنب إساءة استخدام هذه التكنولوجيا.



النشرة الإخبارية

مرحبا بكم في النشرة الإخبارية لمنطقة ويتنس و برنامج الشرق الأوسط وشمال أفريقيا!

.تلقى الأخبار والتحديثات عن اعمالنا في الشرق الأوسط !جنبا إلى جنب مع موارد عملية للتصوير، وتبادل وحفظ الفيديوهات في مجال حقوق الإنسان
.نحن لن نشارك بريدك الالكتروني مع طرف ثالث

الاشتراك

WITNESS Newsletter