Mistral AI 推出 Mixtral 8x7B:开源语言模型的新时代

Mixtral 8x7B相关信息:https://openrouter.ai/models/mistralai/mixtral-8x7b-instruct?tab=status
模型下载链接:https://huggingface.co/ehartford/dolphin-2.5-mixtral-8x7b
更多动态资讯:https://heehel.com/category/ai-news
AIGC专区:https://heehel.com/category/aigc

法国人工智能初创公司Mistral AI日前宣布推出其最新语言模型Mixtral 8x7B,该模型被誉为开源性能的新标杆。Mixtral 8x7B是一款开放权重的模型,在多项基准测试中表现优于Llama 2的700亿参数模型,并在大多数指标上超越了OpenAI的GPT-3.5。该模型拥有32,000标记的上下文长度,支持英语、西班牙语、法语、意大利语和德语。此外,Mixtral 8x7B还具备代码生成功能,并能以连贯的方式回答问题。

Mistral AI 推出 Mixtral 8x7B:开源语言模型的新时代

Mixtral 8x7B的内部架构采用专家混合的模式,每个专家都专注于特定的任务。相对于传统方法,这种混合模式能够生成更加流畅、类似人类回答的结果。与GPT-3.5相比,Mixtral 8x7B的性能更真实,偏差较小。而在增加模型容量的同时,Mixtral 8x7B并未成比例地增加计算需求,实现了高速响应的高性能。

为了满足用户需求,该模型采用混合商业模式,既提供了开源的下载和使用,又提供了按需付费的API访问。在计算机领域,开源软件具有重要意义,促进了竞争和创新的加速。通过提供高质量的开源软件,Mistral AI降低了进入该领域的门槛,实现了对新进入者的民主化。

Mistral AI 推出 Mixtral 8x7B:开源语言模型的新时代

 

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
今日签到
有新私信 私信列表
搜索