当一群技术信徒在为AI大模型开启通用人工智能时代而兴奋时,也有不同的声音呼吁警惕风险,提高对AI安全和监管问题的重视。 近日,美国非营利组织生命未来研究所和人工智能安全中心先后发布的两封声明就代表了这样的声音,并获得科学界和企业界上千位人士的签名支持,包括全球首富、特斯拉CEO马斯克,OpenAI创始人山姆·奥特曼,以及深度学习之父杰弗里·辛顿。 这两封声明在国内科研界也获得一定支持,中国科学院自动化研究所研究员、人工智能伦理与治理中心主任曾毅就是其中的一位。他为什么会签署?AI真的会带来灭绝风险? 近日,在与搜狐科技的独家对话中,曾毅表示,两次声明都意识到了目前人工智能发展过程中的风险和失控的可能性,但应对方式有显著差别。 《暂停人工智能巨模型实验》号召通过暂停更高级别的巨模型的研究,优先为AI设计并实现安全框架;《人工智能风险声明》号召“减轻人工智能灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项”,更深度和直接地表达了对AI给人类带来潜在生存风险的担忧和应采取的行动。 曾毅正是基于认同这样的观点而在声明上签字。“少数人很难改变趋势,但少数人首先站出来提升公众的意识,最终参与改变现状的就会是多数人。” 他认为,大流行病、核战争与人工智能可能给人类带来的潜在生存风险的共性是波及范围广,甚至具有广泛致命性,更关键的是都难以提前预测。 “远期人工智能的挑战,如果从现在开始研究如何规避其风险,尚有可能应对,但近期人工智能的风险则显得更为紧迫。”曾毅表示,最近生成式人工智能产生的虚假信息极大降低了社会信任,万物互联使得相关风险规模放大。 不过,他也强调称,重视和管控AI的安全风险不是阻碍AI的发展与应用,而是确保AI技术稳健发展。“这两封声明的目的都不是阻碍人工智能的发展,恰恰是在探索人工智能稳健发展的途径。” 如何解决AI风险,使得它安全地发展?曾毅在近日的智源大会上提出了他的解决方案——要构建有道德的脑启发人工智能。 他对搜狐科技解释称,目前的AI模型合乎伦理道德的做法是用规则化的伦理原则约束,使智能信息处理系统对齐人类价值观与行为,但这种方式好似建构空中楼阁,没有道德直觉作为根基,没有真正的理解,不可能实现真正意义的伦理道德。 曾毅认为,要想解决这一问题,AI应该向自然演化和人脑学习,探索脑启发的人工智能,实现其在结构与机制上类脑,在行为和功能上类人,使AI以构建自我模型为基础,逐步发展认知、情感、道德等。 “只有为人工智能赋予一定程度的自我感知,实现认知共情、情感共情、利他行为,实现一定程度的道德直觉,才有可能实现真正意义的有道德的人工智能。”他表示,这必然是一条极其困难而艰辛的发展道路,但目前看不到其他捷径。 如果沿着这样的路径发展,当AI也具备伦理道德,它是否会和人类价值观形成冲突?在曾毅看来,如果让AI完全重新开始与世界互动,必然会形成与人类价值与道德观念有所差异的体系,但这一定不是人类所期望的。 因此,曾毅认为,在推动AI的价值系统与人类对齐的同时,人类也应当在与AI互动过程中有所启发,以辅助人类价值系统与伦理道德观的完善。 同时,他认为,未来AI可能会具有更多生命的特征,智力水平有可能会全面达到甚至超越人类,而人类则希望和AI和谐共生。但能否共生共存,最大的瓶颈在于人类,而非AI。 “人工智能是人类的一面镜子,我们在构建人工智能的过程中,应不断反思人类与其他生命的关系和相处之道。”曾毅表示,面对有可能全面超越人类的超级智能,人类的道德需要加速演化。 |