論文の概要: Depth Map Estimation of Dynamic Scenes Using Prior Depth Information
- arxiv url: http://arxiv.org/abs/2002.00297v1
- Date: Sun, 2 Feb 2020 01:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 20:13:56.918455
- Title: Depth Map Estimation of Dynamic Scenes Using Prior Depth Information
- Title(参考訳): 事前深度情報を用いた動的シーンの深度マップ推定
- Authors: James Noraky, Vivienne Sze
- Abstract要約: 本稿では,並列に収集した画像から深度マップを推定するアルゴリズムと,動的シーンに対する予め測定した深度マップを提案する。
我々のゴールは、大きな計算コストを伴わずに、能動深度センサと計算との深度取得のバランスをとることである。
提案手法では, 標準ラップトップコンピュータ上で, 最大30FPSの高密度深度マップを, 類似の手法よりも桁違いに高速に取得できる。
- 参考スコア(独自算出の注目度): 14.03714478207425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth information is useful for many applications. Active depth sensors are
appealing because they obtain dense and accurate depth maps. However, due to
issues that range from power constraints to multi-sensor interference, these
sensors cannot always be continuously used. To overcome this limitation, we
propose an algorithm that estimates depth maps using concurrently collected
images and a previously measured depth map for dynamic scenes, where both the
camera and objects in the scene may be independently moving. To estimate depth
in these scenarios, our algorithm models the dynamic scene motion using
independent and rigid motions. It then uses the previous depth map to
efficiently estimate these rigid motions and obtain a new depth map. Our goal
is to balance the acquisition of depth between the active depth sensor and
computation, without incurring a large computational cost. Thus, we leverage
the prior depth information to avoid computationally expensive operations like
dense optical flow estimation or segmentation used in similar approaches. Our
approach can obtain dense depth maps at up to real-time (30 FPS) on a standard
laptop computer, which is orders of magnitude faster than similar approaches.
When evaluated using RGB-D datasets of various dynamic scenes, our approach
estimates depth maps with a mean relative error of 2.5% while reducing the
active depth sensor usage by over 90%.
- Abstract(参考訳): 深度情報は多くの応用に有用である。
能動深度センサは、密集した正確な深度マップを得るため、魅力的である。
しかし、電力制約からマルチセンサー干渉まで幅広い問題から、これらのセンサーを常に使用することはできない。
この制限を克服するために,同時収集した画像を用いて深度マップを推定するアルゴリズムと,カメラとシーン内のオブジェクトが独立に移動可能な動的シーンの深度マップを提案する。
これらのシナリオの奥行きを推定するために, アルゴリズムは独立および剛体運動を用いて動的シーン動作をモデル化する。
次に、前の深度マップを使用して、これらの剛体運動を効率的に推定し、新しい深度マップを得る。
当社の目標は,大規模な計算コストを伴わずに,アクティブ深さセンサと計算の深さ取得のバランスをとることにある。
そこで,先行する奥行き情報を利用して,同様の手法で使用される高密度光流推定やセグメンテーションなどの計算コストのかかる操作を回避する。
提案手法では, 標準ラップトップコンピュータ上で, 最大30FPSの高密度深度マップを, 類似の手法よりも桁違いに高速に取得できる。
動的シーンのRGB-Dデータセットを用いて評価すると, 平均相対誤差2.5%で深度マップを推定し, アクティブ深度センサの使用量を90%以上削減する。
関連論文リスト
- Temporal Lidar Depth Completion [0.08192907805418582]
PENetは, 再発の恩恵を受けるために, 最新の手法であるPENetをどう修正するかを示す。
提案アルゴリズムは,KITTI深度補完データセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2024-06-17T08:25:31Z) - SelfReDepth: Self-Supervised Real-Time Depth Restoration for Consumer-Grade Sensors [42.48726526726542]
SelfReDepthは、深度復元のための自己教師型ディープラーニング技術である。
複数のシーケンシャルな深度フレームとカラーデータを使用して、時間的コヒーレンスで高品質な深度ビデオを実現する。
我々の結果は、実世界のデータセット上での我々のアプローチのリアルタイムパフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-06-05T15:38:02Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Manydepth2: Motion-Aware Self-Supervised Multi-Frame Monocular Depth Estimation in Dynamic Scenes [45.092076587934464]
動的オブジェクトと静的背景の両方に対して正確な深度推定を実現するため,Marydepth2を提案する。
動的コンテンツによって引き起こされる課題に対処するために、光学的流れと粗い単分子深度を取り入れて擬似静的参照フレームを作成する。
このフレームを使用して、バニラターゲットフレームと協調してモーション対応のコストボリュームを構築する。
論文 参考訳(メタデータ) (2023-12-23T14:36:27Z) - FS-Depth: Focal-and-Scale Depth Estimation from a Single Image in Unseen
Indoor Scene [57.26600120397529]
実際の(見えない)屋内シーンの単一の画像から絶対深度マップを予測するのには、長年不適切な問題だった。
本研究では,未確認屋内シーンの単一画像から絶対深度マップを正確に学習するための焦点・スケール深度推定モデルを開発した。
論文 参考訳(メタデータ) (2023-07-27T04:49:36Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - DnD: Dense Depth Estimation in Crowded Dynamic Indoor Scenes [68.38952377590499]
複雑な屋内環境の中を移動する単眼カメラから奥行きを推定するための新しい手法を提案する。
提案手法は,静的な背景と複数の移動する人物からなるシーン全体にわたる絶対規模の深度マップを推定する。
論文 参考訳(メタデータ) (2021-08-12T09:12:39Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。