蚂蚁集团副总裁李俊奎,要为AI健康发展设立“红绿灯”,蚂蚁集团副总裁李俊奎,为AI健康发展设红绿灯

访客 孩子起名 2024-11-21 3 0

11月21日,在2024年世界互联网大会乌镇峰会“人工智能负责任开发与应用分论坛”上,蚂蚁集团副总裁李俊奎在发言中指出,要为AI健康发展设立“红绿灯”:对会给人类价值观和社会稳定造成严重冲击的AI应用,必须进行防御和抵制;对具有潜在风险的AI应用领域,要做充分、深度的分析和研究,建立完善的伦理和安全框架;对那些有益于人类的AI应用,应亮起通行信号。

李俊奎将AI比作高速行驶的列车,“它既带来了前所未有的机遇,如促进经济发展、社会进步、助力公益事业,但如同列车需要轨道和信号的引导一样,AI的发展也不能毫无约束地狂奔,必须为其设立红绿灯,保障其健康前行”。

红灯,就是做好风险的控制。“我们要警惕AI技术被恶意利用,比如用于制造虚假信息、发动网络攻击或者加剧社会不平等。深度伪造技术就是一个例子,如果不加以限制,它可能会破坏社会的信任体系,引发混乱。”李俊奎表示,必须对抗这种会对人类价值观和社会稳定造成严重冲击的应用,让红灯成为不可逾越的红线。

黄灯,就是在技术之外,做好AI制度管理,谨慎对待那些具有潜在风险的AI领域。“例如,自动驾驶领域虽然前景非常广阔,但目前还存在很多复杂的伦理问题,比如当自动驾驶汽车面临不可避免的碰撞时,它应该优先保护车内乘客还是行人?”李俊奎认为,面对类似情况,要进行充分、深度的研究和讨论,建立完善的伦理和安全框架,只有当风险可控时,才允许其继续前行。

李俊奎介绍,蚂蚁集团在去年年初建立AI安全伦理委员会时便期望用“善治”应对“善智”。集团的任何AI应用在出台前,都会经过包括科技伦理在内的评测,真正做到用制度引导AI驱动的业务符合“以人为本,科技向善”。

绿灯,就是为那些有益于人类的AI应用亮起通行信号。“安全是手段,最终目的是促进AI健康发展,广泛应用于产业和方便人民的生活,缩小AI引发的技术鸿沟。”

李俊奎表示,为AI的发展设立“红绿灯”的过程也是构建负责任AI的过程。负责任AI的建立从长远来看面临三大趋势:第一,从“准确性”到“人情味”。除了保证AI的可靠性和准确性之外,也要真正让AI更好地服务人类。第二,从“显性风险被动防控”到“隐性风险主动防控”。第三,从“对话交互”到“有效协同”。

李俊奎认为,负责任AI的建立需要各界多方共同努力。对于政府来说,要制定合理的法规政策,明确红线和监管的机制;对于社会组织、科研机构来说,要加强对AI伦理和风险的研究,为决策提供科学依据;对于科技企业来说,要自觉遵守道德和伦理准则,将社会责任融入技术研发中;对于公众来说,要积极关注和参与AI发展的讨论,共同构建负责任的AI。“总之,设立好红绿灯,建立负责任AI,是一个系统性、开放性的命题,既刻不容缓,也需要长期主义。”

分享:

扫一扫在手机阅读、分享本文

最近发表