AI ツールを使用して新しいコンテンツを生成する際には、多くの倫理的な考慮事項があります。出力の所有者は誰ですか?特に、著作物から大きな影響を受けている場合や、著作物から直接コピーされている場合はどうなりますか?大規模言語モデル(LLM)によって分析されるデータに関して、人間の偏見はどのように考えられていますか?
ウェブ担当者として、新しいテクノロジーを慎重かつ責任を持って構築することが重要です。こうした疑問に答えるために、世界中でさまざまな取り組みが行われています。すべての懸念事項に対応することはできませんが、AI の使用における倫理観について、対話のきっかけを提供することはできます。
AI ツールの使用と構築の際に考慮すべき主なポイントは次のとおりです。
- コンテンツの所有権と著作権: 著作権とは、著作者のオリジナル作品を保護する法的保護です。法律は国によって異なり、多くの国で AI によって生成されたコンテンツの扱いについて議論されています。コンテンツを公開する際は、他者の著作権で保護されたコンテンツを侵害していないか、必ず確認してください。回答するのは、想像以上に難しい場合があります。
- 偏見と差別。コンピュータとアルゴリズムは人間によって構築され、人間が収集したデータに基づいてトレーニングされるため、人間の偏見や有害な固定観念の影響を受けます。これは出力に直接影響します。
- プライバシーとセキュリティ。これはすべてのウェブサイトとウェブ アプリケーションで重要ですが、特に機密情報や個人情報がある場合は重要です。クラウド API を使用してユーザーデータをより多くのサードパーティに公開することは懸念事項です。データ転送は安全に行われ、継続的にモニタリングされることが重要です。
Google の AI に関する原則
Google は、責任を持ってテクノロジーを開発し、Google が追い求めない AI の特定の分野を確立することに取り組んでいます。実際、Google はいくつかの AI 原則に取り組んでおり、ガバナンスと実装に重点を置いた中央チームを設置しています。
要約すると、AI アプリケーションの目標は次のとおりです。
- 社会にとって有益である
- 不公平なバイアスの発生、助長を防ぐ。
- 安全性確保を念頭において開発、テストする
- 人々への説明責任を負う
- プライバシー デザイン原則を適用する
- 高水準の科学的卓越性を探求する。
- これらの基本理念に沿った利用のために技術提供する。
ウェブ デベロッパーは、AI ツールをトレーニングするモデルの作成やデータセットの収集を担当するとは限りません。しかし、使用するツールと AI で作成する最終製品については責任があります。
ウェブ上の組織が倫理について考える
倫理的な AI の構築に取り組んでいる非営利団体、非政府組織(NGO)、その他の企業は数多くあります。
以下に例を示します。
この分野には、まだ多くの課題があり、検討すべき点もたくさんあります。Google は、生成するすべてのコンテンツについて、倫理的な考慮を意図的に行うことを目的としています。