-
ComfyUI_DenseDiffusion“密集扩散”:即插即用的精准控制区域生成扩散模型【但丁jr】
如何使用 Stable Diffusion ComfyUI 和利用密集扩散技术更好地控制你的 AI 图像?我们正深入探讨密集扩散(Dense Diffusion),这是一种强大的图像生成模型,允许在图像画布的特定区域内精确控制和分配特定元素。密集扩散并非一个新概念,但自从在之前关于 Omost 的视频中介绍以来,它已经引起了广泛关注。 (登录支付积分查看工作流下载链接👇👇👇)- 941
- 0
-
【AI论文与新生技术】DiMR新型图像生成模型:通过多分辨率扩散模型减轻图像生成中的失真
本文通过集成新颖的多分辨率网络和时间相关层归一化,对扩散模型进行了创新增强。扩散模型因其在高保真图像生成方面的有效性而受到重视。虽然传统方法依赖于卷积 U-Net 架构,但最近基于 Transformer 的设计已经展示了卓越的性能和可扩展性。然而,由于与令牌长度有关的自注意力操作的二次性质,对输入数据进行令牌化(通过“补丁化”)的 Transformer 架构面临着视觉保真度和计算复杂性之间的权…- 806
- 0
-
【AI论文与新生技术】BitsFusion:大幅度减少扩散模型的文件大小,提高生成质量
近年来,基于扩散的图像生成模型通过展示合成高质量内容的能力而取得了巨大成功。然而,这些模型包含大量参数,导致模型尺寸非常大。保存和传输它们是各种应用程序的主要瓶颈,特别是那些在资源有限的设备上运行的应用程序。 在这项工作中,我们开发了一种新颖的权重量化方法,将 UNet 从 Stable Diffusion v1.5 量化到 1.99 位,实现了尺寸缩小 7.9 倍的模型,同时表现出比原始模型更好…- 425
- 0
-
ChronoDepth:从视频扩散先验中学习时间一致的视频深度
一种名为ChronoDepth的视频深度估计方法。这项技术主要应用于计算机视觉领域,尤其是在处理视频内容时,能够提供精确且连贯的深度信息。ChronoDepth的创新之处在于,它不是从头开始开发一个深度估计器,而是将预测任务重新定义为一个条件生成问题,利用现有视频生成模型中的先验知识,从而降低学习难度并提高泛化能力。 ChronoDepth的工作原理是,首先将视频深度估计问题转化为一个条件去噪扩散…- 377
- 0
-
I2VEdit:通过图像到视频扩散模型进行第一帧引导视频编辑
扩散模型卓越的生成能力激发了图像和视频编辑方面的广泛研究。与视频编辑在时间维度上面临更多挑战相比,图像编辑见证了更多样化、更高质量的方法和更强大的软件(如 Photoshop)的发展。鉴于这一差距,我们引入了一种新颖且通用的解决方案,通过使用预先训练的图像到视频模型将编辑从单帧传播到整个视频,将图像编辑工具的适用性扩展到视频。 我们的方法被称为 I2VEdit,根据编辑的程度自适应地保留源视频的视…- 556
- 0
-
腾讯开源混元-DiT:高性能细粒度中文理解多分辨率扩散Transformer模型
官方介绍网址:https://dit.hunyuan.tencent.com/ huggingface:https://huggingface.co/Tencent-Hunyuan/HunyuanDiT github:https://github.com/Tencent/HunyuanDiT 我们提出了混元DiT,一个基于Diffusion transformer的文本到图像生成模型,此模型具有中…- 435
- 0
-
Meta创新加速:Imagine Flash将生成图像骤减至1-3步
Imagine Flash作为一个创新的加速扩散模型框架,显著减少了生成图像的步骤,将原本需要50步的生成过程精简至仅1至3步,从而实现了实时生成图像的效果。同时,该技术还能显著提高图像的质量和保真度,为用户带来更为出色的视觉体验。目前,Imagine Flash技术已成功应用于Meta AI的聊天机器人中,展示了其在实际应用中的巨大潜力。 详细介绍:https://xiaohu.ai/p/646…- 311
- 0
-
"视频版ControlNet"火爆登场 | 功能逆天,支持将任意控制条件应用到任意扩散模型!
本文来源:AI产品汇 原文链接:https://mp.weixin.qq.com/s/nnQ6xeDYKzidnWMVLi_4hw “ ControlNets被广泛用于在不同条件下的图像生成中添加空间控制,如深度图、精细的边缘和人体姿势。然而,当利用预训练的图像ControlNets进行受控视频生成时,会存在大量的挑战。为了应对这些挑战,本文引入了Ctrl-Adapter,这是一个高效且通用的框架…- 346
- 0
-
【月下Hugo】GoodDrag保姆级教程:——使用扩散模型进行拖动编辑的良好实践,图片局部重绘的新高度
这段视频主要介绍了一个由gooddrug开源的工具,该工具可以允许用户通过简单的操作(如涂抹图片区域和添加箭头)来改变图像中的特定部分。例如,用户可以将一个人的脸转向某个方向,或将一个棋子向前移动一格。 这是一种提高拖动编辑稳定性和图像质量的新颖方法。与与累积扰动作斗争并经常导致失真的现有方法不同,GoodDrag 引入了 AlDD 框架,该框架在扩散过程中交替进行拖动和去噪操作,有效提高了结果的…- 254
- 0
-
Ctrl-Adapter:融合ControlNet与扩散模型,实现视频生成的完美控制
项目地址:https://ctrl-adapter.github.io AIGC专区: https://heehel.com/category/aigc 工具箱: https://heehel.com/ai-tools#ai-3d Ctrl-Adapter,作为一个专为视频生成设计的Controlnet,赋予各种图像和视频扩散模型丰富的控制功能,并优化了视频的时间对齐。它具备多项强大能力,包括图像…- 318
- 0
-
ScoreHMR:用 3D 人体模型恢复视频人物动作的评分引导扩散模型
Score-Guided Diffusion for 3D Human Recovery,又名 ScoreHMR。我们提出了分数引导的人体网格恢复 (ScoreHMR),这是一种解决 3D 人体姿势和形状重建逆问题的方法。这些逆问题涉及将人体模型拟合到图像观察,传统上通过优化技术来解决。 论文:https://arxiv.org/abs/2403.09623 项目页面:https://statho…- 204
- 0
-
当视频生成AI有了关键帧效果会更好,国人视频生成模型项目:DynamiCrafter
基于扩散模型的属性,图像生成的不稳定性,导致大部分视频生成ai最终效果都很混乱,而且时长局限性很大。Sora增加了空间扩散和大预言模型联想的能力,所以模型的理解更加深刻,生成的视频也更加接近完美。 北京大学,香港中文大学及腾讯AI研究室的这个技术(DynamiCrafter)也很有意思,相当于给生成模型增加了落地(定版)画面,指定了方向,让模型只需要联想中间的信息。有点像动画的关键帧,电脑自动补中…- 542
- 0
-
保姆级教程:layerdiffusion终于可以在ComfyUI中使用,其中这8个工作流有你想要的吗?【月下Hugo】
本期学习资料链接:https://pan.quark.cn/s/14cf9cb85b05 往期视频工作流、插件、模型资料:https://pan.quark.cn/s/7173cec616b6 如何在ComfyUl中使用layerdiffusion。首先介绍了如何安装layerdiffusion节点和工作流,然后分享了三个工作流:生成透明背景素材、生成透明素材的蒙版、添加背景和物体。还介绍了如何提…- 1.7k
- 0
-
字节跳动突破性项目ResAdapter:扩散模型的域一致分辨率适配器,大幅度降低畸形图出现的概率
原文章链接:https://res-adapter.github.io/ 项目代码:https://github.com/bytedance/res-adapter 仓库链接:https://github.com/bytedance/res-adapter.git 文本到图像模型(例如稳定扩散)和相应的个性化技术(例如 DreamBooth 和 LoRA)的最新进展使个人能够生成高质…- 402
- 0
-
字节跳动开发项目SDXL Lightning闪电实时生图AI工具
在线体验: http://fastsdxl.ai GitHub: https://github.com/fal-ai/sdxl-lightning-demo-app 边打字边生成图片,速度就像闪电一样快,视频没有加速,打字速度决定了图片生成的速度,但是相比于LCM似乎是质量有点差,面容时常拉胯。 该项目由字节跳动开发,采用了一种创新的蒸馏策略,优化扩散模型,实现了从文本到高分辨率图像的快速、高质量…- 522
- 0
-
Stable Diffusion 3的到来巩固了 AI 图像对抗 Sora 和 Gemini 的早期领先优势
Stability AI 将其更改为 Stable Diffusion 3。VentureBeat 报道称,Stability AI 的下一代旗舰 AI 图像生成模型将使用类似于 OpenAI 的 Sora 的扩散变压器框架。其当前模型仅依赖于扩散架构。虽然尚未发布,但您可以在等候名单中注册。 官方网址链接: https://stability.ai/ 官方网址注册候补链接: https://st…- 242
- 0
-
【聚梦小课堂】超越SDXL的Stable Cascade ComfyUI工作流下载安装使用教程
百度网盘链接:https://pan.baidu.com/s/195xdUtVIxdI0b4u1oZW3WA?pwd=5p7k 提取码:5p7k 资源详情和使用方法:https://github.com/Stability-AI/StableCascade 【Stable Cascade】https://pan.quark.cn/s/857573075df5 【免费资源】https://favdr…- 576
- 0
-
【叫我四胖子】Stable Diffusion绘画底层原理:用一棵桃树为你讲清楚知识点:扩散模型、 采样器、采样步数
StableDiffusion的绘画原理和过程。通过逆向降噪的过程,stable diffusion实现了从一张铺满噪点的图片逆向恢复成原图像的效果。视频中解释了为什么要给图片加噪点和如何去除噪点,以及通过加噪点给图片进行降维的过程。同时,视频还提到了使用扁平化和2D化的图片提交给AI可以减少信息损失。最后,视频呼吁观众多多关注和支持他的创作。 Stable Diffusion专区:https:/…- 165
- 0
-
UltrAvatar:生成具有真实性引导纹理的逼真可动画 3D 带有 PBR 纹理头像扩散模型
3D 头像生成的最新进展引起了广泛关注。这些突破旨在产生更逼真的动画化身,缩小虚拟和现实世界体验之间的差距。大多数现有作品都采用分数蒸馏采样 (SDS) 损失,结合可微渲染器和文本条件,来指导扩散模型生成 3D 头像。然而,SDS 经常生成过度平滑的结果,面部细节很少,因此与祖先采样相比缺乏多样性。 huggingface链接: https://huggingface.co/papers/2401…- 444
- 0
-
【Stable diffusion技巧教程】深入分析,通过AI认识绘画风格
大家经常面对一大堆不同风格的作品时,在自己专业储备还不够时,很难自己描述清晰,也导致出图时不知道给什么咒语。这次,作者用AI角度给大家剖析了关于风格分类的技巧,把SD当中的画面风格效果和属性做一个详细的分析讲解。 Stable Diffusion是一种文本到图像的潜在扩散模型,由CompVis、Stability AI和LAION的研究人员和工程师创建。它使用来自LAION-5B数据…- 288
- 0
-
【中英双字】一篇文章教你怎么选择Stable Diffusion扩散采样器的类型以及各个扩散器的功能详解教学,再也不用担心不知道怎么选
WebUI扩散器太多?不知道哪个有什么用?哪个扩散器步骤选多少合适?看完这片武林秘籍,你就有了一招绝世神功。着急的朋友可以直接跳到下面看总结。 原文章网址:https://www.felixsanz.dev/articles/complete-guide-to-samplers-in-stable-diffusion#family-of-dpm-models 更多消息:https://heehel…- 555
- 0
-
HAAR 可以根据文本提示生成基于 3D 线的人类发型。该模型能够在不同的发型之间进行插值、编辑甚至动画化
这是一种基于文本的生成模型,称为HAAR,用于生成逼真的三维人类发型。该模型通过将文本提示作为输入,生成准备用于各种计算机图形动画应用的三维发型资产。与现有的基于人工智能的生成模型不同,HAAR利用三维发丝作为底层表示,并利用二维视觉问答系统自动注释艺术家创建的发型的合成模型。通过在共同的发型UV空间中操作的潜在扩散模型,可以训练出具有多样性的发型,并与现有的发型生成方法进行比较。能使用HAAR生…- 326
- 0
-
通过Upscale-A-VideoAI人工智能模型实现高质量和连贯的视频超分辨率
项目及演示网址链接:https://shangchenzhou.com/projects/upscale-a-video/ 论文网址链接:https://arxiv.org/abs/2312.06640 GitHub资源网址链接:https://github.com/sczhou/Upscale-A-Video 专区内容:https://heehel.com/category/aigc 由南洋理工…- 212
- 0
-
DiffusionMat AI框架
DiffusionMat 是一个 AI 框架,它使用扩散模型通过校正每个去噪步骤的输出来创建精细的 alpha 遮罩,使其看起来更像原始输入图像。 项目下载地址: https://cnnlstm.github.io/DiffusionMat/?ref=aiartweekly- 144
- 0
❯
今日签到
有新私信
私信列表
搜索
客服
扫码打开当前页
扫码加入交流群
公众号客服
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!