Mistral AI发布Mixtral 8x7B:革新机器学习的SMoE语言模型,性能媲美GPT-3.5
Mistral AI推出Mixtral 8x7B,基于SMoE模型,性能媲美GPT-3.5。模型广泛应用于数学、代码生成、阅读理解等任务,推理速度更快。Mixtral8x7B和Mixtral8x7B – Instruct已开源,获得Apache2.0许可证。Mistral AI计划于2024年开源GPT-4级别模型,引领开源大语言模型领域。
Mistral AI推出Mixtral 8x7B,基于SMoE模型,性能媲美GPT-3.5。模型广泛应用于数学、代码生成、阅读理解等任务,推理速度更快。Mixtral8x7B和Mixtral8x7B – Instruct已开源,获得Apache2.0许可证。Mistral AI计划于2024年开源GPT-4级别模型,引领开源大语言模型领域。
发表评论