AI ツールを使用し、新しいコンテンツを生成する場合、多くの倫理的考慮事項があります。著作物から大きな影響を受けるか、著作物から直接コピーされている場合、著作物の所有権は誰ですか?大規模言語モデル(LLM)によって分析されるデータに関して、人間のバイアスについてどのように考えていますか?
ウェブの実務担当者として、慎重かつ責任を持って新しいテクノロジーを構築することが重要です。こうした疑問に答えるために、世界中で多くの取り組みが行われています。すべての懸念をカバーすることはできませんが、AI を使用する際に倫理についてどのように考えるかについて対話を始めることはできます。
AI ツールを使用および構築する際に考慮すべき主な領域は次のとおりです。
- コンテンツの所有権と著作権。著作権は、オリジナル作品に対する法的保護です。法律は国によって異なり、AI によって生成されたコンテンツについては多くの国で何が起こるかについて議論が行われています。コンテンツを公開する際は、「他者の著作権を侵害しているコンテンツですか?」という質問に対する答えを把握しておく必要があります。予想以上に回答が難しい場合があります。
- バイアスと差別。コンピュータとアルゴリズムは人間が構築し、人間が収集する可能性のあるデータに基づいてトレーニングされているため、人間のバイアスや有害な固定観念の影響を受けます。これは出力に直接影響します。
- プライバシーとセキュリティ。これは、すべてのウェブサイトとウェブ アプリケーションにとって重要ですが、特に機密情報や個人を特定できる情報がある場合に重要です。Cloud APIs を使用すると、ユーザーデータがより多くの第三者に公開されることが懸念されます。データ送信は安全で、継続的にモニタリングされることが重要です。
Google の AI に関する原則
Google は責任を持ってテクノロジーを開発し、追い求めない AI の特定の領域を確立することに尽力しています。実際、Google はガバナンスと実装を専門とする中央チームを置いて、いくつかの AI に関する原則にコミットしています。
簡単に言うと、Google の AI アプリケーションの目標は次のとおりです。
- 社会にとって有益であること。
- 不公平なバイアスの発生や助長を防ぐ
- 安全性確保を念頭において開発、テストする
- 人々への説明責任を負う
- プライバシー デザイン原則を適用する
- 高水準の科学的卓越性を探求する。
- これらの基本理念に沿った利用のために技術提供する。
Google は、モデルの作成や AI ツールをトレーニングするデータセットの収集について常に責任を負っているわけではありませんが、使用するツールと AI を使用して作成する最終プロダクトについて責任を負います。
倫理について考えるウェブ上の組織
多くの非営利団体、非政府組織(NGO)、その他の企業が、倫理的な AI の開発に取り組みと研究を集中させています。
いくつか例を挙げましょう。
この分野でに取り組むべき課題は数多くあります。また、検討すべき事項も数多く残されています。YouTube は、生成するすべてのコンテンツについて、倫理的な配慮を心がけています。