美国白宫12日发布明称,美国商务部长雷蒙多等政府官员将在白宫召集人工智能AI企业管,拟共享风险信息引入第三方漏洞检测使用限制指南等措施,加强这项新技术安全应用

根据明,AdobeCohereIBM英伟达PalantirSalesforceScale AIStability八家涉及人工智能公司承诺采取自愿监管措施管理AI技术开发风险,包括在推出前安全测试、构建全放在首位的系统AI生成内容添加数字水印等。

在确保产品安全方,八家公司承诺在发布AI系统之前,将对其系统内部和外部安全测试。这项测试将部分由独立专家行,旨在防范智能可能造成的风险,如生物安全和网络安全,以及其更广泛社会影响。此外,公司还承诺在整个行业以及与政府、民间社会学术界共享有关管理人工能风险的信息,包括安全最佳实践和技术合作

这些公司还承诺将安全放在系统构建的首位,承诺将资金网络安全和内部威胁保障措施,以保护专有和未发布的大模型。这些大模型人工智能系统最重要的部分,八家公司致认为,在充分考虑安全风险后再发布大模型至关重要。此外,公司还致力于促进第三发现报告其人工智能系统中的漏洞,从而使这些问题能快速发现和修复。

在赢得公众信任方面,这些公司致力于开发强大的技术机制,以确保用户内容何时由人工智能生成,例如印系统。这一行动使人工智能的创造力生产力得以蓬勃发展,且减少了欺诈欺骗的危险。此外,相关公司承诺公开报告其人工智能系统的功能、局限性以及适当和不当使用的领域。

加强人工智能的应用监管日益成为全球欧洲议会6月表决《人工智能法案》授权草案,该案有望于今年年底获得最终批准。国《外交》杂志日前刊指出,人工智能在2035年可能无处不在:AI系统将管理医院运营航空公司,并在法庭上较劲。届时,生产力将飙升至前所未有的水平,无数以前难以想象的企业以惊人的速度扩张,但在应用风险的防范方面需要随之升级。业界普遍认为,如何更好地平衡与衔接技术创新制度创新,还需在实践中不断修正。(记者闫磊)

 

 

来源新华网经济参考报

http://www.xinhuanet.com/tech/20230914/95b31531b6bc4cb287c651fb867c98b5/c.html