(相关资料图)

目前,AI大模型的通用能力,让其能够应用到人类生产生活的各个场景中,可谓“无孔不入”;AI的发展因此也带来了新的安全隐患,如何解决这一问题,在9月7日开幕的2023 INCLUSION·外滩大会上,中国科学院院士何积丰开出了他的“药方”:利用对齐技术为大模型戴上紧箍咒。

何积丰认为,大模型的安全问题主要是在未经同意的情况下,收集、使用和泄露个人信息。隐私问题既可能发生在训练过程,也可能发生在使用过程中,而大模型的生成能力则让“隐私泄露”的方式变得多样化,造成隐私保护更加困难。

“为了应对这些问题,我们需要大模型对齐技术。”何积丰说,“对齐(alignment)”是指系统的目标和人类价值观一致,使其符合设计者的利益和预期,不会产生意外的有害后果。“如果把人工智能看作西游记里的孙悟空,‘对齐’就是唐僧的紧箍咒。有了紧箍咒,就可以保证技术不会任意使用能力胡作非为”。

不过,对齐技术同样面临挑战。首先,对齐的基础是人类的价值观,但它是多元且动态变化的,就需要保证大模型为人服务、与人为善;其次,大模型的“有用性”与“无害性”之间目标也不完全一致。最后如何对错误进行有效纠正,设好大模型的“紧箍咒”也是挑战。

因此,对齐技术已经成为了一项令人眼花缭乱的跨学科研究,不仅考验技术,也审视文化。

何积丰介绍,反馈强化学习是实现对齐的技术途径,目前有两种方式,一种方式是通过人工反馈给模型不同的奖励信号,引导模型的高质量输出;另一种方式,事先给大模型提供明确的原则,系统自动训练模型对所有生成的输出结果提供初始排序。

“这意味着,不仅智能系统需要向人类价值观对齐,人类的训练方法也要向价值观对齐。”何积丰由此提出一个口号,“人类要跟机器持续共同学习”。

最后何积丰呼吁,“在AI发展过程中,千万不要不要忘记人类的核心角色,希望AI技术成为我们的助手,而不是代替人类创造新世界的未来”。

风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

推荐内容