Reddit一个博主分享的神奇操作,用 Stable Diffusion 实时重绘谷歌街景的场景

把世界上任何地方的地标变成动漫风格。

用的 canny controlNet 模型,toyxyz的网络摄像头 ComfyUI插件捕捉屏幕内容。

稳定扩散非常适合获取源图像并对它们应用样式。在此示例中,我通过将屏幕的一部分作为输入,将 Google 地图转换为动漫背景样式。然后我将其设置为在检测到更改时生成图像。

教程专区:
https://heehel.com/category/ai-tutorial

原帖链接:https://heehel.com/sd-real-time-redraw-map1

原文章:https://heehel.com/sd-real-time-redraw-map2

ComfyUI 是一个基于节点的稳定扩散 GUI。我喜欢 ComfyUI,因为我有使用节点编辑器(Unreal Blueprints、Unity Shader Graph、Substance Designer、Blender Shader Editor)进行游戏开发的经验。大多数开始学习 Stable Diffusion 的人都会使用 Stable Diffusion Web UI(称为“Automatic1111”)以避免歧义。还有福库斯。它非常适合快速生成优质图像,但您无法看到幕后到底发生了什么。

这是工作流程(博主没有放出工作流下载,但是有图片和参数信息):

Reddit一个博主分享的神奇操作,用 Stable Diffusion 实时重绘谷歌街景的场景

  • 检查点模型: meinamix_meinaV11
  • 肯定提示: day, noon, (blue sky:1.0), clear sky
  • 否定提示: (worst quality, low quality:1.4), (zombie, sketch, interlocked fingers, comic)
  • Resolution: 768 x 512 分辨率: 768 x 512
  • ControlNet model: control_vllp_sd15_canny.pth
  • ControlNet 模型: control_vllp_sd15_canny.pth

根据 Google 地图位置,我在肯定提示中添加国家或城市名称(例如日本、纽约、巴黎等)。我使用 toyxyz 的自定义网络摄像头节点捕获屏幕的一部分,并将输出插入 ControlNet canny 模型。

  1. KSampler: K采样器:
  2. seed: 1
  3. control_after_generate: fixed
  4. steps: 15
  5. cfg: 4.0
  6. sampler_name: euler_ancestral
  7. scheduler: normal
  8. denoise: 1.00

您可能会问,“为什么不像 toyxyz 示例中的工作流程那样使用 LCM-LoRA?”我尝试了一下,但最终的图像看起来与网络摄像头捕获的图像太相似。我希望它更有创意,修改提示并不能完全给我我想要的结果。

可以进一步优化这一点并产生更好更快的生成。也许可以使用 StreamDiffusion、TouchDesigner 或基于 SDXL-Lightning 的模型。查看 Félix Sanz 关于 SDXL-Lightning 比较和优化稳定扩散 XL 的文章。

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
今日签到
有新私信 私信列表
搜索