倫理と AI

Alexandra Klepper
Alexandra Klepper

AI ツールを使用して新しいコンテンツを生成する際には、倫理的な考慮事項が多数あります。出力の所有者は誰ですか?特に、著作権で保護された素材から大きな影響を受けている場合や、著作権で保護された素材から直接コピーされている場合はどうなりますか?大規模言語モデル(LLM)で分析されるデータに関して、人間のバイアスをどのように考慮すればよいですか?

ウェブの専門家として、新しいテクノロジーを慎重かつ責任を持って構築することが重要です。これらの疑問(およびその他の疑問)に答えるための取り組みが世界中で行われています。すべての懸念事項を網羅することはできませんが、AI を使用する際の倫理観について話し合うことはできます。

AI ツールを使用して構築する際に考慮すべき主な分野は次のとおりです。

  • コンテンツの所有権と著作権著作権とは、オリジナル作品の創造性を保護する法的保護です。法律は国によって異なり、多くの国で AI によって生成されたコンテンツの取り扱いについて議論されています。コンテンツを公開する際は、次の質問に対する答えを把握しておく必要があります。他者の著作権で保護されたコンテンツを侵害していないか?この質問は、予想以上に難しいかもしれません。
  • バイアスと差別。コンピュータとアルゴリズムは人間によって構築され、人間が収集した可能性のあるデータでトレーニングされるため、人間のバイアスや有害なステレオタイプの影響を受けます。これは出力に直接影響します。
  • プライバシーとセキュリティ。これはすべてのウェブサイトとウェブ アプリケーションで重要ですが、特に機密情報や個人を特定できる情報がある場合は重要です。クラウド API を使用してユーザーデータをより多くのサードパーティに公開することは懸念事項です。データ送信の安全性を確保し、継続的にモニタリングすることが重要です。

Google の AI に関する原則

Google は、責任を持ってテクノロジーを開発し、AI の特定の分野には触れないことを明確にしています。実際、Google はいくつかの AI 原則を遵守しており、ガバナンスと実装に重点を置いた中央チームを設けています。

AI アプリケーションの目標は次のとおりです。

  1. 大胆なイノベーション。Google は、人間活動のほぼすべての分野で人々を支援してパワーとインスピレーションを与え、経済発展の促進と生活の質の向上、科学の飛躍的な進歩、人類が直面する難しい課題の解決に貢献する AI を開発します。
  2. 責任ある開発とデプロイ。AI はまだ発展途上の変革的なテクノロジーであり、複雑さとリスクが増していくことも理解しています。そのため、Google は AI の開発と導入のライフサイクル全体(設計、テスト、導入、イテレーション)を通じて責任を持って AI を追求し、AI の進歩と利用の進化に合わせて学習を続けています。
  3. 広範なコラボレーションによる進歩。Google は、多様なユーザーが個人と集団の利益のために AI を活用できるようにするツールを開発します。

ウェブ デベロッパーは、AI ツールをトレーニングするモデルの作成やデータセットの収集に責任を負わない場合もありますが、使用するツールや AI で作成する最終製品については責任を負います。

ウェブ上のさまざまな組織が倫理について考えています

倫理的な AI の作成に仕事と研究の中心を置いている非営利団体、非政府組織(NGO)、その他の企業が多数あります。

以下に例をいくつか紹介します。

この分野では、まだ多くの課題があり、検討すべき事項も数多くあります。Google は、生成するすべてのコンテンツについて、倫理的配慮を意図的に行うことを目指しています。