Google 更新 AI 开发原则,删除不开发军事与监视应用的承诺,引发外界对 AI 技术道德问题的关注。

虽然2018年因内部员工反对将技术用于军事,使得Google拟定一系列政府合作道德原则,但后续仍说明依然会将其技术用于军事领域。而在Meta公布其前沿人工智慧框架白皮书 (Frontier AI Framework)之后,Google调整其人工智慧发展原则,正式移除不会继续研发用于军事或监视的承诺描述。

不过,Google表示将会透过适当的人为监督、尽职调查,以及相关意见反馈机制确保人工智慧技术运作安全,并且符合用户期望目标、符合社会责任,以及广泛能被接受的国际法规与人权原则。

在此之前,Google曾承诺不会将人工智慧用于造成对人伤害的武器或技术,另外也不会将人工智慧用于违反国际公约规范的监控技术。

对于此次调整,DeepMind执行长Demis Hassabis与Google研究、实验室、技术级社会资深副总裁James Manyika说明,当人工智慧开始走向通用技术形式发展时,必然会导致政策上的改变,更预期民主国家应引领人工智慧技术发展,使其以自由、平等且尊重人权等原则指导。

同时,Google更认为拥有发展人工智慧技术的公司应该与政府等机构合作,一同创造保护人类,并且促进全球发展的人工智慧技术,更说明会在遵守广泛被接受的国际法与人权原则下,仔细评估人工智慧发展效益是否远超过潜在风险,借此确保人工智慧技术应用发展安全性。

而除了Google调整其人工智慧发展原则,OpenAI在去年也悄悄地在使用政策中,将原本禁止将其技术用于军事及战争事宜的条款移除,意味未来有可能借由军事及战争领域应用争取获利。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论
立即
投稿
发表
评论
返回
顶部