中外专家签署北京AI安全国际共识:禁止AI自行复制

未来生命研究所发起的 “暂停GPT-4及以上AI系统至少6个月研发”公开信发布近一年后,又一则关于AI安全与治理相关行业共识达成。

3月18日,包括图灵奖得主约书亚·本吉奥、杰弗里·辛顿、姚期智等在内的数十位的中外专家日前在北京联合签署了由智源研究院发起的《北京AI安全国际共识》,涉及人工智能“风险红线”和“路线”两大块,其中“风险红线包含自主复制、改进”,“权力寻求”、“协助不良行为者”和“欺骗”四个部分。

中外专家签署北京AI安全国际共识:禁止AI自行复制

据了解,关于“人工智能的自主复制和改进”,共识强调了人在这个过程中的作用,要求任何人工智能系统都不应在人类没有明确批准和协助的情况下复制或改进自身,包括制作自身的精确副本以及创造具有相似或更高能力的新人工智能系统。

原创文章,作者:lishengli,如若转载,请注明出处:http://www.lishengli.com/lee/2641.html

发表回复

登录后才能评论