-
Bilibili开源发布轻量级 Index 系列语言模型:2.8T 训练数据,支持角色扮演
简介 Bilibili首次发布 Index 系列模型中的轻量版本:Index-1.9B 系列 本次开源的 Index-1.9B系列包含以下模型: Index-1.9Bbase:基座模型,具有 19 亿 非词嵌入参数量,在 2.8T 中英文为主的语料上预训练,多个评测基准上与同级别模型比处于领先. Index-1.9Bpure:基座模型的对照组,与 base 具有相同的参数和训练策略,不同之处在于我…- 1k
- 0
-
OpenELM:具有开源训练和推理框架的高效语言模型系列
大型语言模型的可重复性和透明度对于推进开放研究、确保结果的可信性以及对数据和模型偏差以及潜在风险的调查至关重要。为此,我们发布了 OpenELM,一种最先进的开放语言模型。 OpenELM 使用分层缩放策略来有效地分配变压器模型每一层内的参数,从而提高准确性。例如,在参数预算约为 10 亿个参数的情况下,OpenELM 与 OLMo 相比,精度提高了 2.36%,同时需要的预训练令牌减少了 2 倍…- 122
- 0
-
微软Phi-3系列语言模型:在苹果iPhone和Vision pro设备的运行使用表现
Phi-3是微软推出的一系列小型语言模型,Phi-3系列模型以其独特的设计理念脱颖而出。该系列模型包括mini(3.8B参数)、small(7B参数)和medium(14B参数)三个版本,旨在满足不同场景和需求的应用。与大型模型相比,Phi-3在保持较小的参数规模的同时,通过精心设计的训练数据集和优化的算法,实现了与之相媲美的语言理解和推理能力。这种轻量级设计不仅降低了模型的复杂度,还提高了其在实…- 304
- 0
-
微软宣布推出Phi-3:手机本地功能强大的语言模型
研究团队引入了 phi-3-mini,这是一个在 3.3 万亿个字符上训练的 38 亿参数语言模型,根据学术基准和内部测试衡量,其整体性能可与 Mixtral 8x7B 和 GPT-3.5 等模型相媲美(例如 phi -3-mini 在 MMLU 上达到了 69%,在 MT-bench 上达到了 8.38),尽管它足够小,可以部署在手机上。 AIGC专区: https://heehel.com/c…- 384
- 0
-
AI不离谱,大语言模型ChatMusician可以理解曲谱生成AI音乐
虽然大型语言模型在文本生成AI音乐方面已经表现得相当出色,但它们在音乐这一人类创造性领域的表现却还有待提高。然而,近日推出的ChatMusician打破了这一局面,成为了一个集成了内在音乐能力的开源大型语言模型。 ChatMusician论文地址: https://arxiv.org/abs/2402.16153 ChatMusician是基于LLaMA2模型进行深度优化的,它采用文本兼容的音乐表…- 389
- 0
-
Python风险识别工具包:微软免费评估模型幻觉、偏见和禁止内容的AI安全测试器
微软正在免费提供其语言模型的内部安全测试工具,该测试器被称为 PyRIT(Python 风险识别工具包),可用于评估语言模型端点是否存在幻觉、偏见和禁止内容的生成。它还可以识别模型的潜在使用方式,例如恶意软件生成和越狱,以及身份盗窃等潜在的隐私危害。 PyRIT资源项目:https://github.com/Azure/PyRIT 该工具通过发送恶意提示来自动执行“红队”任务。收到响应后,它会对模…- 432
- 0
-
外国小伙告诉你谷歌 Gemini 1.5 Pro 有多强大——逆天的1000万代币文本库窗口
Google发布了Gemini 1.5,这是一款突破性的语言模型,推动了人工智能的边界。它采用了多模态模型,可以接受各种格式的输入,如视频、音频和文本。该模型采用了专家混合架构,结合了多个专门的模型来处理不同的任务。最令人印象深刻的特性是其可容纳多达1000万个标记的超大上下文窗口。该模型经过测试,在查找大上下文中的特定信息、从视频中检索信息和理解音频方面表现出了令人印象深刻的性能。它还展示了在单…- 477
- 0
-
财务危机的Stable Diffusion创造者Stability AI转向语言模型,王炸开局一手好牌打得稀烂?
Stability AI 近期陷入财务困境,而该公司正在加大对语言模型的开发力度,希望通过这一举措扭转局面。稳定性人工智能公司推出了其 “StableLM 2 1.6B” 系列模型的首款模型。这款名为 “ StableLM 2 1.6B” 的模型仅有 16 亿个参数,但却是一个功能强大的语言模型。该模型经过两个周期的训练,使用了两万亿个代币的数据,并涵盖了七种语言,包括英语、西班牙语和法语等。 …- 212
- 0
-
科大讯飞将于1月30日发布星火大模型 V3.5,基于全国产化算力底座训练
科大讯飞即将发布全新AI大模型——星火认知大模型 V3.5,该模型将于14:00正式发布。据透露,相比于去年10月24日发布的V3.0版本,V3.5在逻辑推理、文本生成、数学答题及小样本学习能力上均实现了显著提升。 科大讯飞官网链接:https://xinghuo.xfyun.cn/ AI工具专区:https://heehel.com/category/ai-soft AIGC专区:https:/…- 157
- 0
-
谷歌推出 BIG-Bench Mistake 数据集:评估语言模型出错概率和自我纠错能力
谷歌研究院最近推出了一个名为 "BIG-Bench Mistake" 的数据集,用于评估语言模型的出错概率和自我纠错能力。这个数据集由谷歌研究人员使用自家的 BIG-Bench 基准测试创建,其中包含了 255 个逻辑错误。 通过对市面上的语言模型进行测试,研究人员发现,虽然大多数模型能够识别出逻辑错误并进行自我修正,但效果并不理想,通常需要人工干预来纠正模型的输出。谷歌研究人…- 233
- 0
-
新加坡南洋理工大学研发Masterkey模型,揭示AI聊天机器人潜在漏洞
新加坡南洋理工大学(NTU Singapore)的研究人员最近推出了一款名为Masterkey的模型,旨在通过一种名为“越狱”的过程来测试和揭示聊天机器人中的潜在安全漏洞。该模型通过利用系统软件中的缺陷,迫使聊天机器人执行开发人员本意不让其执行的操作。(例如 OpenAI 的 ChatGPT) Masterkey模型生成的提示旨在规避Google Bard和Microsoft Bing Chat上…- 201
- 0
-
LARP:开放世界游戏的语言代理角色扮演AI模型,让你的NPC不再像个铁憨憨
角色扮演语言代理(LARP)在规定的环境和简短的时间内表现出了令人印象深刻的解决问题的能力。然而,随着开放世界模拟的复杂性不断发展,迫切需要能够灵活适应复杂环境并持续保持长期记忆以确保连贯行动的智能体。为了弥合语言代理和开放世界游戏之间的差距,研究人员引入了角色扮演语言代理(LARP),其中包括一个包含记忆处理和决策助理的认知架构,一个具有反馈驱动的环境交互模块可学习的动作空间,以及促进各种个性协…- 467
- 0
-
Mistral AI 推出 Mixtral 8x7B:开源语言模型的新时代
Mixtral 8x7B相关信息:https://openrouter.ai/models/mistralai/mixtral-8x7b-instruct?tab=status 模型下载链接:https://huggingface.co/ehartford/dolphin-2.5-mixtral-8x7b 更多动态资讯:https://heehel.com/category/ai-news AIG…- 246
- 0
-
Microsoft Copilot 通过 Suno 集成获得音乐创作功能
AIGC专区链接:https://heehel.com/category/aigc Microsoft Copilot官网链接:https://copilot.microsoft.com/ Copilot的前身是微软版的ChatGPT聊天机器人——Bing Chat(必应聊天)。在通过和OpenAI的合作中,微软逐渐掌握到了AIGC的大型语言模型技术,随后将这一技术带回到了微软中,并将它很好地与自…- 770
- 0
-
OpenChat:基于C-RLFT微调的AI人工智能语言模型,轻松应对多源数据
OpenChat,采用了C-RLFT(条件化强化学习微调)AI人工智能技术进行微调,展现了强大的性能和出色的泛化能力,在多项基准测试中,OpenChat表现优异,超越了ChatGPT。该模型在7B大小的模型上运行,令人惊叹地能够在24GB RAM的消费级GPU(消费级显卡主要为家用设计,产品支持的重点是保证硬件功能正常,可能无法深入处理软件层面的兼容问题。)上取得优越的效果,不亚于更大规模的GPT…- 560
- 0
-
南开大学与字节跳动共同开发在线生成LLM(语言模型)增强人物开源AI工具ChatAnything
ChatAnything 是一个由南开大学与字节跳动共同开发的在线生成 LLM(语言模型)增强人物角色的开源AI工具。 它可以根据文本描述生成包括外观、个性和语调在内的拟人化AI角色。ChatAnything 利用 LLM 的上下文学习能力,通过设计一组系统提示来生成角色的个性。同时,它引入了两个创新概念:声音混合(MoV)和外观混合(MoD)来实现多样化的声音和外观生成。MoV 利用文本转语音(…- 386
- 0
-
Story-to-Motion项目——无限延长角色动画的文本驱动生成工具
商汤科技研究院最新发布的AI人工智能项目Story-to-Motion在文本驱动AI动画生成领域取得了重大突破。该系统能够处理复杂的文本描述,并将其转换为具体的动作和位置信息,不仅能生成单一动作,还能连续地生成一系列动作,创造出连贯的动画效果。最引人注目的特点之一是,Story-to-Motion可以生成无限长的角色动画。这意味着,只要提供的文本故事足够长且内容连续,系统就能持续根据文本内容生成相…- 324
- 0
-
提高大型预训练语言模型事实性的方法
由Katherine、Eric mitchell、Huaxiu Yao、Christopher D. Manning和Chelsea Finn组成的外国研究团队发布了一篇关于大型预训练语言模型(LLM)提高大型预训练语言模型事实性的方法,以下是他们的内容摘要。 摘要:AI人工智能大型预训练语言模型(LLM)在流畅性和创造性方面表现出色,然而,它们常常产生令人信服但不准确的主张,被称为“幻觉”。这些…- 223
- 0
-
大型语言模型在幻觉表现排行,GPT-4准确率97.0%,幻觉率仅3.0%稳居第一
vectara最新的排行榜对比了各大语言模型在总结短文档时产生幻觉(hallucination)的性能表现。GPT-4在准确率方面表现出色,达到97.0%,幻觉率为仅有的3.0%,回答率达到100.0%。与之相反,Google Palm系列中,Palm Chat 2的表现垫底,准确率为72.8%,幻觉率高达27.2%,回答率为88.8%。 这份排行榜由@vectara的幻觉评估模型计算得出,该模型…- 250
- 0
❯
今日签到
有新私信
私信列表
搜索
客服
扫码打开当前页
扫码加入交流群
公众号客服
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!