允许 AI 用于武器开发、监控系统和军事用途
Google 过去的 AI 原则(2018年制定)曾明确承诺:
✅ 不开发 可能造成整体危害的技术
✅ 不开发 武器 或 会直接伤害人类的技术
✅ 不支持 违反国际公认标准的监控技术
✅ 不参与 违反国际法和人权的 AI 项目
🔹 但在最新修改中,Google 移除了这些承诺,改为:
Google 将在 AI 应用中实施“适当的人工监督、尽职调查和反馈机制”,确保与用户目标、社会责任和国际法律一致。
这一变化引发了员工和公众的担忧,特别是 Google 曾因参与美国军方无人机项目而引发过公司内部抗议,导致 2018 年设立了这些 AI 伦理原则。
----------------------
Thu Feb 06 2025 18:05:53 GMT+0800 (China Standard Time)
via Twitter @小互