ELYZA 发布基于 Llama 2 的日语 LLM,参数量达 70 亿,可与 GPT3.5 匹敌

JS滚动广告
✨ AI前沿 | 每日人工智能最新资讯 ✨

日本人工智能初创公司 ELYZA 发布了一款基于 Meta 的 Llama 2 的日本语言模型,参数量达到 70 亿,性能与 GPT3.5 相媲美。该模型经过追加事前学习和独特的事后学习,获得了 5 级手动评估的最高分。ELYZA 成功将其他语言的 LLM 能力引入日本语,通过减少日本语学习量改进了模型。

发表评论