論文の概要: DS-Depth: Dynamic and Static Depth Estimation via a Fusion Cost Volume
- arxiv url: http://arxiv.org/abs/2308.07225v1
- Date: Mon, 14 Aug 2023 15:57:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 12:38:03.286861
- Title: DS-Depth: Dynamic and Static Depth Estimation via a Fusion Cost Volume
- Title(参考訳): DS深度:核融合コストによる動的および静的深さ推定
- Authors: Xingyu Miao, Yang Bai, Haoran Duan, Yawen Huang, Fan Wan, Xinxing Xu,
Yang Long, Yefeng Zheng
- Abstract要約: 移動物体を記述するために残留光流を利用する新しい動的コスト容積を提案する。
その結果,本モデルは自己教師付き単分子深度推定の基準線よりも優れていた。
- 参考スコア(独自算出の注目度): 26.990400985745786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised monocular depth estimation methods typically rely on the
reprojection error to capture geometric relationships between successive frames
in static environments. However, this assumption does not hold in dynamic
objects in scenarios, leading to errors during the view synthesis stage, such
as feature mismatch and occlusion, which can significantly reduce the accuracy
of the generated depth maps. To address this problem, we propose a novel
dynamic cost volume that exploits residual optical flow to describe moving
objects, improving incorrectly occluded regions in static cost volumes used in
previous work. Nevertheless, the dynamic cost volume inevitably generates extra
occlusions and noise, thus we alleviate this by designing a fusion module that
makes static and dynamic cost volumes compensate for each other. In other
words, occlusion from the static volume is refined by the dynamic volume, and
incorrect information from the dynamic volume is eliminated by the static
volume. Furthermore, we propose a pyramid distillation loss to reduce
photometric error inaccuracy at low resolutions and an adaptive photometric
error loss to alleviate the flow direction of the large gradient in the
occlusion regions. We conducted extensive experiments on the KITTI and
Cityscapes datasets, and the results demonstrate that our model outperforms
previously published baselines for self-supervised monocular depth estimation.
- Abstract(参考訳): 自己教師付き単眼深度推定法は通常、静的環境における連続するフレーム間の幾何学的関係を捉えるために再射誤差に依存する。
しかし、この仮定はシナリオ内の動的オブジェクトには当てはまらないため、特徴ミスマッチや閉塞といったビュー合成の段階でエラーが発生し、それによって生成された深度マップの精度が大幅に低下する。
この問題に対処するために,移動物体を記述するために残留光学的フローを利用する新しい動的コストボリュームを提案し,前回の作業で使用した静的コストボリュームにおいて,不正に排除された領域を改善した。
それでも動的コストボリュームは必然的に余分なオクルージョンとノイズを発生させるため、静的および動的コストボリュームを相互に補償する融合モジュールを設計することにより、これを軽減します。
言い換えると、静的ボリュームからの閉塞はダイナミックボリュームによって洗練され、静的ボリュームによって動的ボリュームからの誤情報が排除される。
さらに,低分解能領域における光度誤差の精度を低下させるピラミッド蒸留損失と,オクルージョン領域における大きな勾配の流れ方向を緩和する適応光度誤差損失を提案する。
我々は,kittiおよびcityscapesデータセットの広範な実験を行い,本モデルが自己教師付き単眼深度推定のベースラインよりも優れていることを示した。
関連論文リスト
- Triply Laplacian Scale Mixture Modeling for Seismic Data Noise Suppression [51.87076090814921]
ポーラシティに基づくテンソルリカバリ法は, 地震データノイズを抑制する大きな可能性を示している。
本研究では, 3次元ラプラシアンスケール混合(TLSM)による地震波の抑制手法を提案する。
論文 参考訳(メタデータ) (2025-02-20T08:28:01Z) - Learning Monocular Depth from Events via Egomotion Compensation [20.388521240421948]
イベントカメラはニューロモルフィックにインスパイアされたセンサーで、明るさの変化をわずかに、非同期に報告する。
本研究では,様々な深度仮説の確率を運動補償の効果で明確に決定する,解釈可能な単眼深度推定フレームワークを提案する。
提案手法は, 絶対相対誤差距離において, 最先端手法を最大10%向上させる。
論文 参考訳(メタデータ) (2024-12-26T05:41:18Z) - ProDepth: Boosting Self-Supervised Multi-Frame Monocular Depth with Probabilistic Fusion [17.448021191744285]
多フレーム単分子深度推定は、静的シーンの仮定の下で連続するフレーム間の幾何的整合性に依存する。
動的シーンにおける移動物体の存在は必然的に不整合を引き起こし、トレーニング中に複数のフレームの特徴マッチングと誤解を招く。
本稿では,確率論的アプローチを用いて動的オブジェクトによるミスマッチ問題に効果的に対処するProDepthという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-12T14:37:49Z) - SMORE: Simulataneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - FlowDepth: Decoupling Optical Flow for Self-Supervised Monocular Depth Estimation [8.78717459496649]
本稿では,ダイナミックモーションフローモジュール (DMFM) が機構ベースのアプローチで光学フローを分離し,動的領域をワープし,ミスマッチ問題を解くフローDepthを提案する。
高フレック領域と低テクスチャ領域による光度誤差の不公平性については,入力と損失レベルでそれぞれDepth-Cue-Aware Blur(DCABlur)とCost-Volumeの空間損失を用いて解決する。
論文 参考訳(メタデータ) (2024-03-28T10:31:23Z) - DDN-SLAM: Real-time Dense Dynamic Neural Implicit SLAM [5.267859554944985]
DDN-SLAMは,意味的特徴を統合した最初のリアルタイム高密度ニューラルネットワーク暗黙的SLAMシステムである。
既存の暗黙的SLAMシステムと比較して、動的データセットの追跡結果は平均軌道誤差(ATE)の精度が平均90%向上していることを示している。
論文 参考訳(メタデータ) (2024-01-03T05:42:17Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Robust Dynamic Radiance Fields [79.43526586134163]
動的放射場再構成法は動的シーンの時間変化構造と外観をモデル化することを目的としている。
しかし、既存の手法では、正確なカメラポーズをStructure from Motion (SfM)アルゴリズムによって確実に推定できると仮定している。
カメラパラメータとともに静的および動的放射場を共同で推定することにより、このロバスト性問題に対処する。
論文 参考訳(メタデータ) (2023-01-05T18:59:51Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - Physics Informed Neural Fields for Smoke Reconstruction with Sparse Data [73.8970871148949]
まばらなマルチビューRGBビデオから流体を高忠実に再現することは、まだまだ難しい課題だ。
既存のソリューションは、障害物や照明に関する知識を前提とするか、障害物や複雑な照明のない単純な流体シーンのみに焦点を当てる。
本稿では, 制御物理(Navier-Stokes方程式)をエンドツーエンドの最適化で活用することにより, 動的流体を再構築する最初の方法を提案する。
論文 参考訳(メタデータ) (2022-06-14T03:38:08Z) - Disentangling Object Motion and Occlusion for Unsupervised Multi-frame
Monocular Depth [37.021579239596164]
既存の動的対象に焦点をあてた手法は、トレーニング損失レベルのミスマッチ問題を部分的に解決しただけである。
本稿では,これらの問題を予測レベルと監督損失レベルの両方で解くために,新しい多フレーム単眼深度予測法を提案する。
我々の手法はDynamicDepthと呼ばれ、自己教師付きサイクル一貫性学習スキームによって訓練された新しいフレームワークである。
論文 参考訳(メタデータ) (2022-03-29T01:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。