論文の概要: MonoDiffusion: Self-Supervised Monocular Depth Estimation Using
Diffusion Model
- arxiv url: http://arxiv.org/abs/2311.07198v1
- Date: Mon, 13 Nov 2023 09:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 15:05:17.818262
- Title: MonoDiffusion: Self-Supervised Monocular Depth Estimation Using
Diffusion Model
- Title(参考訳): monodiffusion:拡散モデルを用いた自己教師付き単眼深度推定
- Authors: Shuwei Shao, Zhongcai Pei, Weihai Chen, Dingchi Sun, Peter C.Y.Chen
and Zhengguo Li
- Abstract要約: 我々はMonoDiffusionと呼ばれる新しい自己教師型深度推定フレームワークを導入し,それを反復的復調過程として定式化する。
トレーニング段階では深部地下構造は利用できないため,モノ拡散の拡散を補助する擬似地下構造拡散プロセスを開発する。
擬似地動拡散は、事前訓練された教師モデルによって生成された深度マップに徐々にノイズを付加する。
- 参考スコア(独自算出の注目度): 17.68594761862957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past few years, self-supervised monocular depth estimation that does
not depend on ground-truth during the training phase has received widespread
attention. Most efforts focus on designing different types of network
architectures and loss functions or handling edge cases, e.g., occlusion and
dynamic objects. In this work, we introduce a novel self-supervised depth
estimation framework, dubbed MonoDiffusion, by formulating it as an iterative
denoising process. Because the depth ground-truth is unavailable in the
training phase, we develop a pseudo ground-truth diffusion process to assist
the diffusion in MonoDiffusion. The pseudo ground-truth diffusion gradually
adds noise to the depth map generated by a pre-trained teacher model.
Moreover,the teacher model allows applying a distillation loss to guide the
denoised depth. Further, we develop a masked visual condition mechanism to
enhance the denoising ability of model. Extensive experiments are conducted on
the KITTI and Make3D datasets and the proposed MonoDiffusion outperforms prior
state-of-the-art competitors. The source code will be available at
https://github.com/ShuweiShao/MonoDiffusion.
- Abstract(参考訳): 過去数年間、訓練段階では地表面に依存しない自己教師付き単眼深度推定が広く注目を集めている。
ほとんどの取り組みは、異なるタイプのネットワークアーキテクチャや損失関数の設計、エッジケース、例えば閉塞や動的オブジェクトの処理に重点を置いている。
本稿では,モノディフフュージョン(monodiffusion)と呼ばれる自己教師付き深さ推定フレームワークを提案する。
トレーニング段階では深部地下構造は利用できないため,モノ拡散の拡散を支援する擬似地下構造拡散プロセスを開発する。
擬似地動拡散は、事前訓練された教師モデルによって生成された深度マップに徐々にノイズを付加する。
また, 教師モデルでは, 蒸留損失を適用して分別深さを導出することができる。
さらに,モデルの発声能力を高めるためのマスキング視覚条件機構を開発した。
大規模な実験はKITTIとMake3Dデータセットで行われ、提案されたMonoDiffusionは最先端の競合より優れている。
ソースコードはhttps://github.com/shuweishao/monodiffusionで入手できる。
関連論文リスト
- Unsupervised Monocular Depth Estimation Based on Hierarchical Feature-Guided Diffusion [21.939618694037108]
教師なし単分子深度推定は、地上の真実を示さずに訓練できるため、広く注目を集めている。
我々は、教師なし単眼深度推定のために、生成ネットワーク間でよく収束する拡散モデルを用いる。
このモデルは深度分布の学習と解釈の能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-06-14T07:31:20Z) - Stealing Stable Diffusion Prior for Robust Monocular Depth Estimation [33.140210057065644]
本稿では, 単分子深度推定に先立って, ステアリング安定拡散 (SSD) という新しい手法を提案する。
このアプローチは、安定拡散を利用して、挑戦的な条件を模倣した合成画像を生成することにより、この制限に対処する。
このアプローチの有効性は、nuScenesとOxford RobotCarで評価されている。
論文 参考訳(メタデータ) (2024-03-08T05:06:31Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Diffusion-SS3D: Diffusion Model for Semi-supervised 3D Object Detection [77.23918785277404]
半教師付き3次元物体検出のための拡散モデルを用いて,擬似ラベルの品質向上に向けた新たな視点であるDiffusion-SS3Dを提案する。
具体的には、劣化した3Dオブジェクトサイズとクラスラベル、分布を生成し、拡散モデルをデノナイズプロセスとして利用し、バウンディングボックス出力を得る。
我々は,ScanNetとSUN RGB-Dベンチマークデータセットの実験を行い,既存手法に対する最先端性能の実現を実証した。
論文 参考訳(メタデータ) (2023-12-05T18:54:03Z) - Soft Mixture Denoising: Beyond the Expressive Bottleneck of Diffusion
Models [76.46246743508651]
我々は,現在の拡散モデルが後方認知において表現力のあるボトルネックを持っていることを示した。
本稿では,後方復調のための表現的かつ効率的なモデルであるソフトミキシング・デノナイジング(SMD)を導入する。
論文 参考訳(メタデータ) (2023-09-25T12:03:32Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z) - The Surprising Effectiveness of Diffusion Models for Optical Flow and
Monocular Depth Estimation [42.48819460873482]
拡散確率モデルは、その印象的な忠実さと多様性で画像生成を変換した。
また,タスク固有のアーキテクチャや損失関数を使わずに,光学的フローと単眼深度の推定に優れることを示す。
論文 参考訳(メタデータ) (2023-06-02T21:26:20Z) - Sparse Depth-Guided Attention for Accurate Depth Completion: A
Stereo-Assisted Monitored Distillation Approach [7.902840502973506]
本研究では,教師モデルとしてステレオモデルを導入し,学生モデルの深度補修精度を向上させる。
自己教師型情報提供には,多視点奥行きの整合性やマルチスケールの最小再計画も活用する。
論文 参考訳(メタデータ) (2023-03-28T09:23:19Z) - DiffusionDepth: Diffusion Denoising Approach for Monocular Depth
Estimation [23.22005119986485]
DiffusionDepthは、単分子深度推定をデノナイズ拡散過程として再構成する新しいアプローチである。
ランダムな深度分布をモノラルな視覚条件のガイダンスで深度マップに分解する反復的復調過程を学習する。
KITTIとNYU-Depth-V2データセットの実験結果は、シンプルだが効率的な拡散アプローチが、許容可能な推論時間を持つ屋内および屋外の両方のシナリオで最先端のパフォーマンスに達することを示唆している。
論文 参考訳(メタデータ) (2023-03-09T03:48:24Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。