//再不认真就输了!
//致力于发现AIGC动态与教程。

一个搞笑的吐槽文字总结大型语言模型CLoT,可以言简意赅的吐槽一张图片

CLoT:训练LLM成为吐槽能手

项目及演示网址链接:https://zhongshsh.github.io/CLoT/

论文网址链接:https://arxiv.org/abs/2312.02439

GitHub网址链接:https://github.com/sail-sg/CLoT

工具专区:https://heehel.com/category/ai-soft

CLoT这个大型语言模型项目目前处于研发状态,但是有一个演示网站,里面有很多功能介绍和生成预览。特点是根据日本传统喜剧游戏“大喜利”(Oogiri)来进行研发的,目的是想创建一个人设是吐槽高手的大型语言模型,从而回应用户给出文字信息。在大喜利游戏模式中的生成回复,AI需要理解给定图文信息来产生幽默搞笑的回答。

Oogiri是一种需要极快给出有趣回应的即兴喜剧游戏。它强调参与者的反射能力、幽默感和表现力。打个比方,如果主题是“冰淇淋”,一个好玩的回应可以是“冰淇淋被冻疼了,打起冰块来”这样。通过这种意想不到的联想产生笑点,才是Oogiri游戏的精髓。

测试包括图像到文本(I2T)、文本到文本(T2T)和图像&文本到文本(IT2T)

具体方法:

研究人员创建了一个名为 Oogiri-GO 的多模态、多语言数据集,其中包含超过130,000个样本。在AI训练方面,采用了特殊的训练方法,使得AI能够学会在游戏中提供创意且幽默的回答。CLoT首先将Oogiri-GO数据集转换为以LoT为导向的指令调整数据,以训练预训练的语言模型(LLM)以达到一定的LoT幽默生成和辨别能力。接着,CLoT设计了一个探索性的自我完善过程,鼓励LLM通过探索那些看似无关的概念之间的平行关系来生成更多创造性的LoT数据,并选择高质量的数据进行自我完善。

实验结果:

实验结果表明,CLoT显著提升了语言生成模型(如Qwen和CogVLM)在多种Oogiri游戏类型中的表现。具体而言,CLoT对LLM在生成幽默内容方面发挥了积极作用。在性能方面的量化提升表现为,相较于原始和集成CoT的LLM,CLoT集成的LLM在Oogiri游戏的多项选择和排名问题上取得了更高的表现。此外,CLoT还在其他任务(如“云猜测游戏”和“发散性联想任务”)中提高了创造性能力,展现了其卓越的泛化能力。

https://heehel.com/aigc/leonardo-ai-guide-tips.html

https://heehel.com/aigc/magnificai-runwayml.html

版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《一个搞笑的吐槽文字总结大型语言模型CLoT,可以言简意赅的吐槽一张图片》
文章链接:https://heehel.com/aigc/clot-funny-llm.html
本站资源仅供个人学习交流,未经许可不得用于商业用途,自行承担法律责任。
如有疑问,请联系微信:heehelcom

评论 抢沙发

喜好儿——再不认真就输了!

致力于发现ai人工智能应用的新世界, 长期更新目前热门AI教程与动态!期待在这个工业变革时代中,希望你我都能发出一点光。

登录

找回密码

注册