TinyLlama:仅用 90 天、3 万亿 token 训练的 550MB AI 模型
新加坡科技设计大学研究团队开发了一款名为 TinyLlama 的 550MB AI 模型。该模型计划在 90 天内使用 3 万亿代币的数据集进行训练,以适应内存受限的边缘设备。团队使用了 16 个 A100-40G GPU,并计划在 90 天内完成训练。TinyLlama 的成功将为实时机器翻译等多种应用提供高性能 AI 解决方案。该模型将成为较小语言模型的一员,用于构建各种应用。
新加坡科技设计大学研究团队开发了一款名为 TinyLlama 的 550MB AI 模型。该模型计划在 90 天内使用 3 万亿代币的数据集进行训练,以适应内存受限的边缘设备。团队使用了 16 个 A100-40G GPU,并计划在 90 天内完成训练。TinyLlama 的成功将为实时机器翻译等多种应用提供高性能 AI 解决方案。该模型将成为较小语言模型的一员,用于构建各种应用。
发表评论