Lazy loaded image
🗒️Mistral AI发布开源大模型「8x7B」——欧洲版OpenAI
Words 162Read Time 1 min
2023-12-13
2023-12-13
type
date
slug
status
summary
tags
category
password
icon
📄「8x7B」是首个开源的 MoE 大模型,共有 560 亿个参数,支持 32k 上下文窗口。支持英语、法语、德语、西班牙语和意大利语,但是实测输入中文也会回答
📈在 7 个基准测试中,「8x7B」超过了 Llama2 70B,并且达到或超过 GPT-3.5
🤖️Mistral AI 被外界称作欧洲版 OpenAI ,并且「8x7B」使用了与 GPT-4 非常相似但规模较小的架构,所以未来非常有机会与 OpenAI 分庭抗礼
notion image
在线体验(需要切换到8x7b模型)
上一篇
shuyuan:书源仓库(每3天自动更新一次)
下一篇
中国古代卷轴画资源站