هناك العديد من الاعتبارات الأخلاقية عند استخدام أدوات الذكاء الاصطناعي وإنشاء محتوى جديد. من يملك المخرجات، خاصةً إذا كان متأثرًا بشكل كبير بمواد محمية بحقوق الطبع والنشر أو تم نسخها منه بشكل مباشر؟ كيف نفكر في التحيز البشري عندما يتعلق الأمر بالبيانات التي يتم تحليلها باستخدام النماذج اللغوية الكبيرة (LLM)؟
بصفتنا ممارسين على الويب، من الأهمية بمكان أن نبني تقنية جديدة بعناية ومسؤولية. هناك جهود كثيرة في جميع أنحاء العالم للإجابة عن هذه الأسئلة (وغيرها). لا يمكننا تناول كل المخاوف، ولكن يمكننا مناقشة كيفية تقييمك للأخلاقيات عند استخدام الذكاء الاصطناعي.
في ما يلي بعض المجالات الرئيسية التي يجب مراعاتها عند استخدام أدوات الذكاء الاصطناعي والإنشاء باستخدامها:
- ملكية المحتوى وحقوق الطبع والنشر: حقوق الطبع والنشر هي حماية قانونية للأعمال الأصلية التي يتم تأليفها. يختلف القانون من بلد لآخر، وتناقش العديد من البلدان ما يحدث للمحتوى الذي ينشئه الذكاء الاصطناعي. عليك معرفة الإجابة عن السؤال التالي عندما تنشر محتوى: هل تنتهك حقوق الطبع والنشر لمحتوى محمي بحقوق الطبع والنشر يملكه شخص آخر؟ قد يكون هذا أصعب مما قد تتوقع الإجابة!
- الانحياز والتمييز: يتم إنشاء أجهزة الكمبيوتر والخوارزميات من قبل بشر، وتدريبهم على البيانات التي قد يجمعها البشر، وبالتالي فهي تخضع للتحيز البشري والصور النمطية الضارة. يؤثر هذا بشكل مباشر على الناتج.
- الخصوصية والأمان: وهذا الإجراء مهم لجميع مواقع الويب وتطبيقات الويب، ولكن خاصةً عند وجود معلومات حساسة أو معلومات تحديد الهوية الشخصية. مصدر قلق هو تعريض بيانات المستخدم لمزيد من الجهات الخارجية باستخدام واجهات برمجة التطبيقات في السحابة الإلكترونية. من المهم أن يكون أي نقل للبيانات آمنًا ومراقبًا باستمرار.
مبادئ الذكاء الاصطناعي في Google
نحن ملتزمون بتطوير التكنولوجيا بشكل مسؤول وإنشاء مجالات محدّدة من الذكاء الاصطناعي لن نسعى إلى متابعتها. في الواقع، التزمت Google بعدة مبادئ الذكاء الاصطناعي، من خلال فريق مركزي يركّز على الحوكمة والتنفيذ.
باختصار، في ما يلي أهدافنا من تطبيقات الذكاء الاصطناعي:
- تحقيق فوائد على مستوى المجتمع
- يتجنب إثارة الانحياز غير العادل أو تعزيزه.
- مراعاة السلامة عند التصميم والاختبار
- يخضع للمساءلة أمام البشر.
- تضمين مبادئ تصميم تراعي الخصوصية
- الالتزام بأعلى معايير التفوّق العلمي
- إمكانية الاستخدام وفقًا لهذه المبادئ
نحن كمطوّرين على الويب قد لا نكون مسؤولين دائمًا عن إنشاء النماذج وجمع مجموعات البيانات التي تدرّب أدوات الذكاء الاصطناعي، إلا أنّنا مسؤولون عن الأدوات التي نستخدمها والمنتجات النهائية التي نبتكرها باستخدام الذكاء الاصطناعي.
المؤسسات عبر الويب التي تفكر في الأخلاقيات
هناك عدد من المنظمات غير الربحية والمنظمات غير الحكومية والشركات الأخرى التي ركزت على عملها وأبحاثها في إنشاء الذكاء الاصطناعي الأخلاقي.
لنطّلع معًا على بعض الأمثلة
- ForHumanity
- مركز الذكاء الاصطناعي والسياسة الرقمية
- مجموعة عمل W3C
- أدوات التأليف والذكاء الاصطناعي | COPE: لجنة أخلاقيات النشر
هناك المزيد من العمل الذي يجب القيام به في هذا المجال، والعديد من الاعتبارات الأخرى التي لم يتم اكتشافها حتى الآن. نعتزم مراعاة الاعتبارات الأخلاقية لكل جزء من المحتوى الذي ننشئه.