倫理與 AI

使用 AI 工具及生成新內容時,必須考量多項倫理考量。誰是輸出內容的擁有者,尤其是受到版權保護素材極度影響或直接從他人複製的內容中複製而來?對於由大型語言模型 (LLM) 分析的資料,我們如何看待人為偏見?

身為網路從業人員,我們必須以負責任的態度審慎地打造新技術。全球各地有許多努力來回答這些問題,還有許多其他努力。我們無法瞭解所有疑慮,但我們可以展開討論,瞭解你在使用 AI 時對倫理的看法。

以下是使用 AI 工具建構及建構內容時應考量的幾個重點領域:

  • 內容擁有權和版權版權是對作者原創作品的法律保護。這項法律因國家/地區而異,許多國家/地區正針對 AI 生成的內容,爭論情況。每次發布內容時,您應該知道以下問題的答案:您是否侵犯了他人的版權內容?這可能比您預期要回答的還困難!
  • 偏誤和歧視。電腦和演算法由人類打造,以人類收集的資料訓練,因此會受到人類偏見和有害的刻板印象所影響。這會直接影響輸出結果。
  • 隱私權與安全性:這對所有網站和網頁應用程式都很重要,但對於機密或個人識別資訊來說更是如此。使用 Cloud API 向更多第三方公開使用者資料是一項疑慮。所有傳輸資料都受到安全且持續監控非常重要。

Google 的 AI 開發原則

我們致力以負責任的方式開發技術 並確立我們不予考慮的特定 AI 領域事實上,Google 承諾遵守多項 AI 開發原則,其中包含一個專門團隊管理與實作的中央團隊

簡單來說,我們的 AI 技術應用目標如下:

  1. 考量社會利益。
  2. 避免製造或加深不合理的偏見。
  3. 建置防護措施並執行安全測試。
  4. 對人類負責。
  5. 採行隱私保護設計原則。
  6. 堅持以高標準追求卓越的科學成就。
  7. 以上述原則做為應用基準。

雖然網頁程式開發人員不見得隨時負責建立模型、收集用於訓練 AI 工具的資料集,但必須對自己使用的工具及運用 AI 建立的最終產品負責。

網路上的機構都考量倫理道德

包括非營利組織、非政府組織 (NGO) 及其他許多公司 將工作和研究重點放在建立道德 AI 技術

以下列舉一些例子。

這個空間還有很多工作需要處理,還有許多需要注意的事項。我們希望所有創作內容都秉持道德考量