//再不认真就输了!
//致力于发现AIGC动态与教程。

ID-Aligner:通过奖励反馈学习增强保留身份的文本到图像的生成

 

扩散模型的快速发展引发了多样化的应用。身份保留文本到图像生成(ID-T2I)因其广泛的应用场景(例如人工智能肖像和广告)而受到广泛关注。

虽然现有的 ID-T2I 方法已经展示了令人印象深刻的结果,但仍然存在一些关键挑战:(1)很难准确地保持参考肖像的身份特征,(2)生成的图像缺乏审美吸引力,特别是在执行身份保留时,以及(3) )存在无法同时兼容基于LoRA和基于Adapter的方法的限制。为了解决这些问题,我们提出了 ID-Aligner,这是一个用于增强 ID-T2I 性能的通用反馈学习框架。为了解决身份特征丢失的问题,我们引入了身份一致性奖励微调,以利用人脸检测和识别模型的反馈来改善生成的身份保留。

此外,我们提出身份美学奖励微调,利用人类注释的偏好数据的奖励和自动构建的角色结构生成反馈来提供美学调整信号。得益于其通用反馈微调框架,我们的方法可以轻松应用于 LoRA 和 Adapter 模型,从而实现一致的性能增益。 SD1.5 和 SDXL 扩散模型的大量实验验证了我们方法的有效性。

项目页面:https://huggingface.co/papers/2404.15449

AIGC专区:
https://heehel.com/category/aigc

 

版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《ID-Aligner:通过奖励反馈学习增强保留身份的文本到图像的生成》
文章链接:https://heehel.com/aigc/idaligner-image-generation.html
本站资源仅供个人学习交流,未经许可不得用于商业用途,自行承担法律责任。
如有疑问,请联系微信:heehelcom

喜好儿——再不认真就输了!

致力于发现ai人工智能应用的新世界, 长期更新目前热门AI教程与动态!期待在这个工业变革时代中,希望你我都能发出一点光。

登录

找回密码

注册