张向征提出,大模型安全面临四大核心挑战:大模型软件生态系统安全、内容安全、幻觉问题和Agent流程可控。针对这些挑战,360智脑团队基于多年安全研究积累,提出了一套完整的安全防护体系,包括全链路检测、防护、攻击与测评的闭环流程。
在大模型软件生态系统安全方面,360智脑通过自主研发的检测工具与多层次安全评估方法,可及时发现和修复潜在漏洞,为开发者和用户提供全面的技术支持。此外,针对提示注入攻击、持久性提示劫持、记忆投毒等新型安全威胁,团队研发了精准识别与多重防御机制,显著提升了模型对恶意行为的抗干扰能力。
内容安全方面,张向征分享了360智脑的实践经验。团队通过持续预训练、安全微调和安全强化对齐等手段,结合国标TC260的要求,构建了“大模型原生安全增强”“内容安全护栏”两大防护方案,有效减少模型输出中可能涉及的歧视偏见、违禁内容和其他不良信息。在实际应用中,这些措施帮助大模型在金融、医疗和教育等行业更安全、更高效地提供服务。
针对备受关注的大模型幻觉问题,360智脑创新性地引入幻觉检测Agent技术,能够对模型的输出进行实时评估与修正。通过结合外部知识库和搜索增强功能,该技术有效降低了幻觉发生率,提升了模型的决策可信度。张向征透露,得益于这一技术,360智脑在AI搜索场景中的用户体验提升了32%。
此外,在Agent流程可控方面,360智脑构建了一套针对多Agent协作任务的流程监控与管理机制,通过实时监测和动态调整,确保模型任务执行的全程可控性与透明性。这一举措不仅有效降低了操作偏差的风险,还为复杂任务的安全性提供了有力保障。
演讲还介绍了新型攻击方式的风险评估与应对策略。随着大模型应用的加深,基于自然语言到代码的间接提示注入(NL2SHELL)等攻击正日益增多。对此,360智脑利用自主研发的安全评测大模型,结合红队攻击模型,通过对抗方式快速识别潜在威胁,并持续优化模型的安全策略。