谷歌Google刚刚发布环境深度估计模型Diffusion for Metric Depth,可零样本收集室外室内数据集

谷歌Google刚刚发布环境深度估计模型Diffusion for Metric Depth,可零样本收集室外室内数据集

一种名为DMD(Diffusion for Metric Depth)的零射击公制深度估计模型。该模型通过创新性地使用对数尺度深度参数化来联合建模室内和室外场景,以处理深度尺度的模糊性。同时,该模型通过调节视场(FOV)并在训练过程中综合增强FOV,以应对不同相机内在特性的挑战。研究结果表明,该方法相对于现有技术,在室内和室外场景的零射击度量深度估计上,相对误差(REL)分别降低了25%和33%。此外,他们还介绍了DMD模型的方法和结果。DMD模型是一种在零射击条件下进行公制深度估计的先进扩散模型,具有较高的性能和广泛的应用前景。

谷歌Google刚刚发布环境深度估计模型Diffusion for Metric Depth,可零样本收集室外室内数据集

作用:
联合室内-室外建模:以对数尺度参数化深度,以更公平地分配室内和室外场景之间的表示能力。
处理不同的相机内在特征:为了避免过度拟合训练相机内在特征,建议通过裁剪和取消裁剪来增强训练数据以模拟不同的视场(FOV)
多样化的训练数据:使用多样化的微调混合物,与单独在 NYU 和 KITTI 数据集上进行微调相比,它显着提高了性能。
推理延迟:使用扩散的参数化,这样可以在推理过程中使用少至 1 个去噪步骤

DMD项目论文链接:
https://arxiv.org/abs/2312.13252

DMD项目展示地址:
https://diffusion-vision.github.io/dmd/

AIGC专区
https://heehel.com/category/aigc

https://heehel.com/aigc/videopoet.html

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
今日签到
有新私信 私信列表
搜索