هناك العديد من الاعتبارات الأخلاقية عند استخدام أدوات الذكاء الاصطناعي وإنشاء محتوى جديد. مَن يملك المحتوى الناتج، خاصةً إذا كان متأثرًا بشكل كبير بمواد محمية بحقوق الطبع والنشر أو منسوخًا منها مباشرةً؟ كيف يمكننا التفكير في التحيز البشري عندما يتعلق الأمر بالبيانات التي تحلّلها النماذج اللغوية الكبيرة؟
بصفتنا مطوّرين على الويب، من الضروري أن ننشئ تكنولوجيات جديدة بعناية ومسؤولية. تُبذل جهود عديدة في جميع أنحاء العالم للإجابة عن هذه الأسئلة وغيرها. لا يمكننا تغطية كل المخاوف، ولكن يمكننا فتح حوار حول كيفية التفكير في الأخلاقيات عند استخدام الذكاء الاصطناعي.
في ما يلي بعض المجالات الرئيسية التي يجب مراعاتها عند استخدام أدوات الذكاء الاصطناعي وإنشائها:
- ملكية المحتوى وحقوق الطبع والنشر حقوق الطبع والنشر هي حماية قانونية للأعمال الأصلية المؤلَّفة. تختلف القوانين من بلد إلى آخر، وتناقش العديد من البلدان حاليًا مصير المحتوى الذي ينشئه الذكاء الاصطناعي. عند نشر أي محتوى، يجب أن تعرف الإجابة عن السؤال التالي: هل تنتهك محتوى محميًا بموجب حقوق الطبع والنشر يخصّ شخصًا آخر؟ قد يكون من الصعب الإجابة عن هذا السؤال.
- التحيّز والتمييز: يتم إنشاء أجهزة الكمبيوتر والخوارزميات على أيدي بشر، ويتم تدريبها على بيانات قد يجمعها بشر، وبالتالي فهي تخضع للانحيازات البشرية والصور النمطية الضارة. ويؤثر ذلك بشكل مباشر في الناتج.
- الخصوصية والأمان هذا الإجراء مهم لجميع المواقع الإلكترونية وتطبيقات الويب، ولكنّه مهم بشكل خاص عندما يتضمّن الموقع معلومات حساسة أو معلومات تحديد هوية شخصية. يُعدّ عرض بيانات المستخدمين على المزيد من الجهات الخارجية باستخدام واجهات برمجة التطبيقات المستندة إلى السحابة الإلكترونية أمرًا مثيرًا للقلق. من المهم أن يكون نقل البيانات آمنًا وأن تتم مراقبته باستمرار.
مبادئ الذكاء الاصطناعي من Google
نحن ملتزمون بتطوير التكنولوجيات بطريقة مسؤولة وتحديد مجالات معيّنة من الذكاء الاصطناعي لن نسعى إلى تنفيذها. في الواقع، التزمت Google بعدة مبادئ للذكاء الاصطناعي، مع فريق مركزي يركّز على الحوكمة والتنفيذ.
باختصار، أهدافنا من تطبيقات الذكاء الاصطناعي هي كما يلي:
- الابتكار الجريء نحن نعمل على تطوير الذكاء الاصطناعي لمساعدة المستخدمين وتعزيز قدراتهم وإلهامهم في جميع المجالات تقريبًا، وتحقيق التقدّم الاقتصادي، وتحسين حياة المستخدمين، والمساهمة في التقدّم العلمي، والمساعدة في مواجهة أكبر التحديات التي تواجه البشرية.
- التطوير والنشر بمسؤولية ندرك أنّ الذكاء الاصطناعي يُعدّ تكنولوجيا تحويلية ناشئة وقد ينطوي استخدامه على تعقيدات ومخاطر متنوّعة ومتغيّرة، لذا نسعى إلى تطويره واستخدامه بشكل مسؤول طوال دورة حياته، بدءًا من التصميم والاختبار والنشر والتكرار، ونتعلّم مع تطوّر الذكاء الاصطناعي واستخداماته.
- التقدّم التعاوني نصنع أدوات تتيح للآخرين الاستفادة من الذكاء الاصطناعي لتحقيق منافع فردية وجماعية.
مع أنّنا كمطوّري ويب قد لا نكون مسؤولين دائمًا عن إنشاء النماذج وجمع مجموعات البيانات التي تدرب أدوات الذكاء الاصطناعي، إلا أنّنا مسؤولون عن الأدوات التي نستخدمها والمنتجات النهائية التي ننشئها باستخدام الذكاء الاصطناعي.
المؤسسات التي تهتم بقواعد السلوك على الويب
هناك عدد من المؤسسات غير الربحية والمنظمات غير الحكومية (NGO) والشركات الأخرى التي تركز عملها وأبحاثها على إنشاء ذكاء اصطناعي أخلاقي.
في ما يلي بعض الأمثلة.
- ForHumanity
- مركز الذكاء الاصطناعي والسياسة الرقمية
- فريق عمل W3C
- التأليف وأدوات الذكاء الاصطناعي | COPE: لجنة أخلاقيات النشر
لا يزال هناك الكثير من العمل الذي يجب إنجازه في هذا المجال، والعديد من الاعتبارات التي لم يتم التعرّف عليها بعد. نحن نولي أهمية كبيرة للاعتبارات الأخلاقية في كل قطعة محتوى ننشئها.