微调ChatGPT 0.2美元可破防:普林斯顿与斯坦福发布LLM风险警告

JS滚动广告
✨ AI前沿 | 每日人工智能最新资讯 ✨

普林斯顿与斯坦福发布LLM风险警告,微调ChatGPT 仅需0.2美元,即可破坏其安全性。研究显示微调后的模型安全性堪忧,普通用户微调也会影响LLM的安全性。结果表明少量有害数据可显著降低模型的安全性,微调引入新的风险。尽管OpenAI承诺改进安全性,仍需更多措施来抵御微调风险。

发表评论