論文の概要: FiffDepth: Feed-forward Transformation of Diffusion-Based Generators for Detailed Depth Estimation
- arxiv url: http://arxiv.org/abs/2412.00671v1
- Date: Sun, 01 Dec 2024 04:59:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:45:49.261874
- Title: FiffDepth: Feed-forward Transformation of Diffusion-Based Generators for Detailed Depth Estimation
- Title(参考訳): FiffDepth:詳細な深さ推定のための拡散型発電機のフィードフォワード変換
- Authors: Yunpeng Bai, Qixing Huang,
- Abstract要約: FiffDepthは拡散ベースのイメージジェネレータをフィードフォワードアーキテクチャに変換し、詳細な深さ推定を行うフレームワークである。
精度、安定性、詳細性を向上し、様々な現実世界のシナリオでMDEパフォーマンスを大幅に改善する。
- 参考スコア(独自算出の注目度): 31.06080108012735
- License:
- Abstract: Monocular Depth Estimation (MDE) is essential for applications like 3D scene reconstruction, autonomous navigation, and AI content creation. However, robust MDE remains challenging due to noisy real-world data and distribution gaps in synthetic datasets. Existing methods often struggle with low efficiency, reduced accuracy, and lack of detail. To address this, we propose an efficient approach for leveraging diffusion priors and introduce FiffDepth, a framework that transforms diffusion-based image generators into a feedforward architecture for detailed depth estimation. By preserving key generative features and integrating the strong generalization capabilities of models like dinov2, FiffDepth achieves enhanced accuracy, stability, and fine-grained detail, offering a significant improvement in MDE performance across diverse real-world scenarios.
- Abstract(参考訳): 単眼深度推定(MDE)は、3Dシーン再構成、自律ナビゲーション、AIコンテンツ作成などのアプリケーションに不可欠である。
しかし、実世界のノイズの多いデータと合成データセットの分散ギャップのため、堅牢なMDEは依然として困難である。
既存の手法は、しばしば低効率、精度の低下、詳細の欠如に苦しむ。
そこで本研究では,拡散前処理を効果的に活用する手法を提案し,拡散画像生成装置をフィードフォワードに変換して詳細な深度推定を行うフレームワークFiffDepthを提案する。
Dinov2のようなモデルの重要な生成機能を保持し、強力な一般化機能を統合することで、FiffDepthは精度の向上、安定性、詳細化を実現し、様々な現実世界のシナリオでMDEパフォーマンスを大幅に改善する。
関連論文リスト
- High-Precision Dichotomous Image Segmentation via Probing Diffusion Capacity [69.32473738284374]
本稿では,拡散モデルにおける事前学習されたU-Netのポテンシャルを利用する拡散駆動セグメンテーションモデルDiffDISを提案する。
SDモデルに先立って、頑健な一般化機能とリッチで多目的な画像表現を活用することにより、高忠実で詳細な生成を保ちながら、推論時間を著しく短縮する。
DIS5Kデータセットの実験は、DiffDISの優位性を示し、合理化された推論プロセスを通じて最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-14T02:49:23Z) - BetterDepth: Plug-and-Play Diffusion Refiner for Zero-Shot Monocular Depth Estimation [25.047835960649167]
BetterDepthは、事前訓練されたMDEモデルからの予測を深度条件として取り込む条件拡散ベースの精錬機である。
BetterDepthは、さまざまな公開データセットと、その中のシーンで、最先端のゼロショットMDEパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-25T11:16:37Z) - Digging into contrastive learning for robust depth estimation with diffusion models [55.62276027922499]
そこで我々はD4RDと呼ばれる新しい頑健な深度推定法を提案する。
複雑な環境での性能劣化を軽減するために、拡散モデルに適した独自のコントラスト学習モードを備えている。
実験では、D4RDは合成汚職データセットや現実世界の気象条件に関する最先端のソリューションを超越している。
論文 参考訳(メタデータ) (2024-04-15T14:29:47Z) - Distribution and Depth-Aware Transformers for 3D Human Mesh Recovery [7.339380415551658]
本稿では,エンド・ツー・エンド・エンドのトランスフォーマーアーキテクチャであるD2A-HMRを導入する。
提案手法は,特定のシナリオにおけるOODデータ処理における優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-14T03:07:58Z) - Bayesian Diffusion Models for 3D Shape Reconstruction [54.69889488052155]
本稿では,トップダウン(優先)情報をボトムアップ(データ駆動)手順と密結合することにより,効果的なベイズ推定を行う予測アルゴリズムを提案する。
3次元形状復元作業におけるBDMの有効性を示す。
論文 参考訳(メタデータ) (2024-03-11T17:55:53Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Diffusion Models Without Attention [110.5623058129782]
Diffusion State Space Model (DiffuSSM) は、よりスケーラブルな状態空間モデルバックボーンで注目メカニズムを置き換えるアーキテクチャである。
拡散訓練におけるFLOP効率の高いアーキテクチャへの注力は、大きな前進となる。
論文 参考訳(メタデータ) (2023-11-30T05:15:35Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。