倫理與 AI

使用 AI 工具和產生新內容時,必須考量許多倫理問題。輸出內容的擁有者是誰?尤其是在輸出內容受到版權內容的強烈影響或直接複製自版權內容的情況下。我們如何看待大型語言模型 (LLM) 分析的資料中所含的人為偏見?

身為網路從業人員,我們必須以負責任的態度,謹慎地開發新技術。世界各地有許多人致力於解答這些問題 (以及更多問題)。我們無法涵蓋所有疑慮,但可以與您討論使用 AI 時的道德觀點。

以下是使用 AI 工具及建構 AI 工具時,需要考量的幾個重點:

  • 內容擁有權和版權版權是指作者的原創作品受到法律保護。法律因國家/地區而異,許多國家/地區也正在討論 AI 生成內容的處理方式。每當你發布內容時,都應知道以下問題的答案:你是否侵犯他人的版權內容?這個問題的答案可能比您想像的還要複雜!
  • 偏見和歧視。電腦和演算法是由人類建構,訓練資料也可能由人類收集,因此可能會受到人類偏見和有害刻板印象的影響。這會直接影響輸出結果。
  • 隱私權與安全性。這項做法對所有網站和網站應用程式都很重要,但如果網站含有機密或可識別個人身分的資訊,就更顯重要。使用雲端 API 將使用者資料公開給更多第三方,這點令人擔心。請務必確保所有資料傳輸作業安全無虞,並持續監控。

Google 的 AI 開發原則

我們會努力負責任地開發技術,並確立會避開的特定 AI 領域。事實上,Google 已承諾遵循多項 AI 開發原則,並設立中央團隊,專責控管和導入相關事宜。

簡而言之,我們對 AI 技術應用的目標如下:

  1. 對社會有益。
  2. 避免製造或加深不合理的偏見。
  3. 建置防護措施並通過安全測試。
  4. 對人類負責。
  5. 採行隱私保護設計原則。
  6. 堅持以高標準追求卓越的科學成就。
  7. 以上述原則做為應用基準。

雖然我們身為網頁開發人員,不一定需要負責建立模型和收集訓練 AI 工具的資料集,但我們必須負責決定要使用哪些工具,以及透過 AI 建立哪些最終產品。

網路上重視倫理的機構

許多非營利組織、非政府組織 (NGO) 和其他公司,都將工作和研究重心放在建立符合倫理的 AI 技術。

以下列舉幾個例子。

這個領域還有許多工作要做,還有許多考量因素有待發現。我們會在產生每項內容時,有意考量倫理層面。