論文の概要: iDisc: Internal Discretization for Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2304.06334v1
- Date: Thu, 13 Apr 2023 08:29:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 15:23:21.865402
- Title: iDisc: Internal Discretization for Monocular Depth Estimation
- Title(参考訳): idisc: 単眼深度推定のための内部離散化
- Authors: Luigi Piccinelli, Christos Sakaridis, Fisher Yu
- Abstract要約: iDiscメソッドは、シーンをハイレベルなパターンのセットに暗黙的に分割します。
新しいモジュールである内部離散化(ID)は、監督なしでこれらの概念を学ぶために、連続的に離散的かつ連続的なボトルネックを実装します。
本手法は,NYU-Depth v2 と KITTI を改良した手法である。
- 参考スコア(独自算出の注目度): 19.866582731000673
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Monocular depth estimation is fundamental for 3D scene understanding and
downstream applications. However, even under the supervised setup, it is still
challenging and ill-posed due to the lack of full geometric constraints.
Although a scene can consist of millions of pixels, there are fewer high-level
patterns. We propose iDisc to learn those patterns with internal discretized
representations. The method implicitly partitions the scene into a set of
high-level patterns. In particular, our new module, Internal Discretization
(ID), implements a continuous-discrete-continuous bottleneck to learn those
concepts without supervision. In contrast to state-of-the-art methods, the
proposed model does not enforce any explicit constraints or priors on the depth
output. The whole network with the ID module can be trained end-to-end, thanks
to the bottleneck module based on attention. Our method sets the new state of
the art with significant improvements on NYU-Depth v2 and KITTI, outperforming
all published methods on the official KITTI benchmark. iDisc can also achieve
state-of-the-art results on surface normal estimation. Further, we explore the
model generalization capability via zero-shot testing. We observe the
compelling need to promote diversification in the outdoor scenario. Hence, we
introduce splits of two autonomous driving datasets, DDAD and Argoverse. Code
is available at http://vis.xyz/pub/idisc .
- Abstract(参考訳): 単眼深度推定は3次元シーン理解および下流アプリケーションに基本となる。
しかしながら、監督された設定の下でも、完全な幾何学的制約がないため、まだ困難かつ不適切である。
シーンは数百万ピクセルで構成されることができるが、高レベルのパターンは少ない。
これらのパターンを内部離散表現で学習するためにidiscを提案する。
このメソッドは暗黙的にシーンを高レベルのパターンの集合に分割する。
特に、我々の新しいモジュールである内部離散化(ID)は、監督なしにこれらの概念を学ぶために、連続的な離散連続的なボトルネックを実装します。
最先端の手法とは対照的に、提案モデルでは、深度出力に明確な制約や事前を課していない。
IDモジュールによるネットワーク全体は、注意に基づくボトルネックモジュールのおかげで、エンドツーエンドでトレーニングすることができる。
提案手法は,NYU-Depth v2 と KITTI を改良し,公式な KITTI ベンチマークで公表されたすべての手法より優れていた。
iDiscは、表面正規推定における最先端の結果も達成できる。
さらに,ゼロショットテストによるモデル一般化機能について検討する。
屋外シナリオにおける多様化を促進するための説得力のあるニーズを観察する。
したがって、DDADとArgoverseの2つの自律走行データセットの分割を導入する。
コードはhttp://vis.xyz/pub/idisc で入手できる。
関連論文リスト
- UnCLe: Unsupervised Continual Learning of Depth Completion [5.677777151863184]
UnCLeはマルチモーダル深度推定タスクの教師なし連続学習のための標準ベンチマークである。
連続したデータストリーム上の教師なし学習の実践シナリオ下で、深度補完モデルをベンチマークする。
論文 参考訳(メタデータ) (2024-10-23T17:56:33Z) - Adaptive Discrete Disparity Volume for Self-supervised Monocular Depth Estimation [0.0]
本稿では,学習可能なモジュールAdaptive Discrete Disparity Volume (ADDV)を提案する。
ADDVは異なるRGB画像の深さ分布を動的に感知し、適応的なビンを生成することができる。
また、自己監督型条件下での正規化を実現するために、新しいトレーニング戦略(統一化と強化)も導入する。
論文 参考訳(メタデータ) (2024-04-04T04:22:25Z) - UniDepth: Universal Monocular Metric Depth Estimation [81.80512457953903]
ドメインをまたいだ単一の画像からメートル法3Dシーンを再構成できる新しいモデルUniDepthを提案する。
我々のモデルは擬似球面出力表現を利用しており、カメラと奥行きの表現を歪めている。
ゼロショット方式における10のデータセットの詳細な評価は、一貫してUniDepthの優れた性能を示している。
論文 参考訳(メタデータ) (2024-03-27T18:06:31Z) - SM4Depth: Seamless Monocular Metric Depth Estimation across Multiple Cameras and Scenes by One Model [72.0795843450604]
現在のアプローチでは、さまざまなシーンで一貫した精度を維持する上で、課題に直面している。
これらの手法は、何千万、あるいは数千万のデータからなる広範囲なデータセットに依存している。
本稿では室内と屋外の両方でシームレスに機能するSM$4$Depthについて述べる。
論文 参考訳(メタデータ) (2024-03-13T14:08:25Z) - Kick Back & Relax++: Scaling Beyond Ground-Truth Depth with SlowTV &
CribsTV [50.616892315086574]
本稿では,SlowTV と CribsTV の2つの新しいデータセットを提案する。
これらは、一般公開されているYouTubeビデオから収集された大規模なデータセットで、合計200万のトレーニングフレームが含まれている。
我々はこれらのデータセットを活用し、ゼロショット一般化の難しい課題に取り組む。
論文 参考訳(メタデータ) (2024-03-03T17:29:03Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Plugging Self-Supervised Monocular Depth into Unsupervised Domain
Adaptation for Semantic Segmentation [19.859764556851434]
セマンティックセグメンテーションのためのUDAを改善するために,自己教師付き単眼深度推定手法を提案する。
我々の提案では,GTA5->CSベンチマークで最先端性能(58.8 mIoU)を達成することができる。
論文 参考訳(メタデータ) (2021-10-13T12:48:51Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - Don't Forget The Past: Recurrent Depth Estimation from Monocular Video [92.84498980104424]
私たちは3つの異なる種類の深さ推定を共通のフレームワークに組み込んだ。
提案手法は, 時系列の深度マップを生成する。
モノクロビデオにのみ適用したり、異なる種類のスパース深度パターンと組み合わせたりすることができる。
論文 参考訳(メタデータ) (2020-01-08T16:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。