韩国中央大学研究团队开发了名为CoPriva的基准测试,评估大语言模型遵守上下文安全策略的能力。研究发现,虽然多数模型能成功拒绝直接违反安全政策的查询,但在面对间接攻击时存在严重漏洞,泄露率平均增加40%以上。即使是推理能力强的模型也未显示出明显优势,且高忠实度的回答往往伴随更多信息泄露。研究团队评估了10种先进模型,发现政策存在与否对防止泄露影响有限,而修订功能仅能部分提升合规性。这揭示了当前AI安全对齐的重大缺陷,强调了开发更强健安全机制的紧迫性。
至顶网 科技行者 2025-05-29 08:24:17