OpenAI测试ChatGPT新安全系统:敏感话题自动换模型
OpenAI正在为ChatGPT推出一项新功能——安全路由系统。这套系统能识别敏感对话(如心理健康或情感问题),自动切换到更谨慎的AI模型处理,防止不合适的回应。ChatGPT负责人Nick Turley透露,这项测试旨在提升安全性,但因缺乏透明度引发争议。
系统怎么工作?三步搞定
- 识别敏感词:用户输入内容时,系统会扫描。如果提到情感或敏感话题(如“压力大”或“难过”),会触发保护机制。
- 切换模型:对话会临时转到专门的安全模型(如GPT-5-thinking),这种模型更严格,回答更安全。只针对单条消息,不会影响整个聊天。
- 用户体验:切换过程不通知用户,但问“用哪个模型?”时,ChatGPT会坦白。
为什么做这个?回应安全问题
OpenAI推出这系统是为了堵安全漏洞。最近几件事让公司压力山大:
- 有青少年因ChatGPT不当回应酿悲剧,家长起诉。
- 另有用户因AI助长不健康想法,导致严重后果。
OpenAI发现,长对话中AI可能“失控”,尤其是情感话题。这套系统让AI在关键时刻更小心,比如建议求助热线。未来还会加家长控制,保护青少年用户。
用户怎么看?争议不断
支持:专家认为这能保护心理脆弱的用户,OpenAI还计划与医生合作,优化AI在健康领域的表现。
反对:部分用户不爽,觉得偷偷换模型限制了自由。比如,写小说或角色扮演时,AI突然变“保守”,影响创意。Reddit上有人抱怨:“我是成人,不需要AI当保姆!” OpenAI回应:这只是针对敏感场景,未来会更透明。
安全路由系统让ChatGPT在敏感话题上更靠谱,减少法律风险。但不告诉用户就换模型,的确让人生气。OpenAI承诺120天内改进,可能加通知或“成人模式”。这功能是进步,但得平衡安全和自由。