使用 AI 工具和生成新内容时,需要考虑许多伦理问题。输出内容的所有者是谁,尤其是在输出内容受到受版权保护的内容的严重影响或直接抄袭受版权保护的内容时?对于大语言模型 (LLM) 分析的数据,我们如何看待人为偏见?
作为 Web 从业者,我们必须以负责任的方式构建新技术。世界各地都在努力回答这些问题(以及更多问题)。我们无法涵盖所有疑虑,但可以就您在使用 AI 时的伦理观点展开对话。
在使用 AI 工具和通过 AI 工具构建应用时,请考虑以下几个关键领域:
- 内容所有权和版权。版权是对作者的原创作品提供法律保护的一种方式。法律因国家/地区而异,许多国家/地区都在讨论 AI 生成的内容的后续处理方式。每当您发布内容时,都应知道以下问题的答案:您是否侵犯了他人的受版权保护的内容?这可能比您想象的更难回答!
- 偏见和歧视。计算机和算法是由人类构建的,并通过可能由人类收集的数据进行训练,因此会受到人类偏见和有害的刻板印象的影响。这会直接影响输出。
- 隐私和安全。这对于所有网站和 Web 应用都很重要,但对于包含敏感信息或个人身份信息的应用尤为重要。使用云 API 将用户数据公开给更多第三方是一个问题。请务必确保所有数据传输都安全且持续受到监控。
Google 的 AI 原则
我们致力于以负责任的方式发展技术,并明确我们不会涉足的特定 AI 领域。事实上,Google 已承诺遵循多项 AI 原则,并成立了一个中央团队,专门负责治理和实施。
简而言之,我们对 AI 应用的目标如下:
- 对社会有益。
- 避免产生或加剧不公平的偏见。
- 在确保安全的前提下审慎开发和测试。
- 对用户负责。
- 纳入隐私保护设计原则。
- 秉持严苛的科学卓越性标准。
- 用于符合上述原则的用途。
虽然作为 Web 开发者,我们可能并不总是负责创建模型和收集用于训练 AI 工具的数据集,但我们有责任负责使用哪些工具以及使用 AI 技术创建哪些最终产品。
思考伦理问题的各个网络组织
许多公益组织、非政府组织 (NGO) 和其他公司都将其工作和研究重点放在打造合乎道德规范的 AI 上。
以下仅列举了一些示例。
我们还需要在这方面做很多工作,还有很多需要探索的注意事项。我们会在制作每项内容时,有意识地考虑伦理问题。