論文の概要: Structure-From-Motion and RGBD Depth Fusion
- arxiv url: http://arxiv.org/abs/2103.06366v1
- Date: Wed, 10 Mar 2021 22:14:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:47:15.224827
- Title: Structure-From-Motion and RGBD Depth Fusion
- Title(参考訳): 構造からの移動とrgbd深部融合
- Authors: Akash Chandrashekar, John Papadakis, Andrew Willis, Jamie Gantert
- Abstract要約: 本稿では,sfm(structure-from-motion)による深度推定をセンサ深度計測と統合することにより,典型的なrgbdセンサを補強する手法について述べる。
rgbd深度センシング技術の限界は、4つの重要なコンテキストで深度測定を捉えることを妨げる。
SfMの深さ推定は同じ制限を被らず、前述の4つの状況で計算することができる。
- 参考スコア(独自算出の注目度): 2.117421588033177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article describes a technique to augment a typical RGBD sensor by
integrating depth estimates obtained via Structure-from-Motion (SfM) with
sensor depth measurements. Limitations in the RGBD depth sensing technology
prevent capturing depth measurements in four important contexts: (1) distant
surfaces (>5m), (2) dark surfaces, (3) brightly lit indoor scenes and (4)
sunlit outdoor scenes. SfM technology computes depth via multi-view
reconstruction from the RGB image sequence alone. As such, SfM depth estimates
do not suffer the same limitations and may be computed in all four of the
previously listed circumstances. This work describes a novel fusion of RGBD
depth data and SfM-estimated depths to generate an improved depth stream that
may be processed by one of many important downstream applications such as
robotic localization and mapping, as well as object recognition and tracking.
- Abstract(参考訳): 本稿では,sfm(structure-from-motion)による深度推定をセンサ深度計測と統合することにより,典型的なrgbdセンサを補強する手法について述べる。
RGBD深度検知技術における限界は,(1)遠方面(>5m),(2)暗黒面,(3)明るく照らされた屋内シーン,(4)太陽が照らされた屋外シーンの4つの重要な文脈における深度測定を防止する。
SfM技術はRGB画像シーケンスのみからの多視点再構成により深度を算出する。
したがって、SfMの深さ推定は同じ制限を被らず、前述の4つの状況で計算することができる。
本研究は,RGBD深度データとSfM推定深度データを融合して,ロボットのローカライゼーションやマッピング,オブジェクト認識やトラッキングなど,多くの重要な下流アプリケーションで処理可能な,改良された深度ストリームを生成する。
関連論文リスト
- Enhancing Underwater Imaging with 4-D Light Fields: Dataset and Method [77.80712860663886]
4次元光場(LF)は、光吸収、散乱、その他の課題に悩まされる水中イメージングを強化する。
水中4次元LF画像強調と深度推定のためのプログレッシブフレームワークを提案する。
学習手法の定量的評価と教師あり訓練のための,最初の4次元LFに基づく水中画像データセットを構築した。
論文 参考訳(メタデータ) (2024-08-30T15:06:45Z) - Q-SLAM: Quadric Representations for Monocular SLAM [85.82697759049388]
四角形のレンズを通して体積表現を再現する。
我々は、RGB入力からノイズの深い深さ推定を正すために二次仮定を用いる。
本研究では,新たな二次分割変換器を導入し,二次情報を集約する。
論文 参考訳(メタデータ) (2024-03-12T23:27:30Z) - RDFC-GAN: RGB-Depth Fusion CycleGAN for Indoor Depth Completion [28.634851863097953]
本稿では,RDFC-GANという2分岐のエンドツーエンド核融合ネットワークを提案する。
RGBと不完全な深度画像のペアを入力として、密集した深度マップを予測する。
第1分枝は、マンハッタン世界の仮定に固執することにより、エンコーダ・デコーダ構造を用いる。
もう一方のブランチでは、RGBイメージを詳細なテクスチャ化された深度マップに変換するのに適したRGB深度融合CycleGANが適用されている。
論文 参考訳(メタデータ) (2023-06-06T11:03:05Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - RGB-D Grasp Detection via Depth Guided Learning with Cross-modal
Attention [14.790193023912973]
本稿では,DGCAN(Depth Guided Cross-modal Attention Network)を用いた新しい学習手法を提案する。
深度チャネルに記録された幾何情報をよりよく活用するために、全6次元矩形表現を専用に考慮して採用する。
余分な掴み深度の予測は特徴学習を大幅に強化し、より正確な結果をもたらす。
論文 参考訳(メタデータ) (2023-02-28T02:41:27Z) - DELTAR: Depth Estimation from a Light-weight ToF Sensor and RGB Image [39.389538555506256]
我々は,高分解能かつ高精度な深度測定機能を備えた軽量ToFセンサを実現する新しい手法であるDELTARを提案する。
DELTARの中核として、深度分布用にカスタマイズされた特徴抽出器と注意に基づくニューラルアーキテクチャを提案し、色とToF領域からの情報を効率的に融合させる。
実験により,提案手法は深度分解能と深度超解像のために設計された既存のフレームワークよりも精度が高く,コモディティレベルのRGB-Dセンサで同等の性能が得られることが示された。
論文 参考訳(メタデータ) (2022-09-27T13:11:37Z) - RGB-Depth Fusion GAN for Indoor Depth Completion [29.938869342958125]
本稿では,RGBと不完全深度画像のペアを入力として,高密度で完成度の高い深度マップを推定する,新しい2分岐エンドツーエンド融合ネットワークを設計する。
あるブランチでは、RGB画像を微細なテクスチャ化深度マップに転送するRGB深度融合GANを提案する。
他方のブランチでは、W-AdaINという名前の適応核融合モジュールを採用し、2つのブランチにまたがる特徴を伝播させます。
論文 参考訳(メタデータ) (2022-03-21T10:26:38Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。