論文の概要: Is my Depth Ground-Truth Good Enough? HAMMER -- Highly Accurate
Multi-Modal Dataset for DEnse 3D Scene Regression
- arxiv url: http://arxiv.org/abs/2205.04565v1
- Date: Mon, 9 May 2022 21:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 18:46:58.247209
- Title: Is my Depth Ground-Truth Good Enough? HAMMER -- Highly Accurate
Multi-Modal Dataset for DEnse 3D Scene Regression
- Title(参考訳): 私の深度は地平線で十分か?
HAMMER -- 高精度な3次元シーン回帰用マルチモードデータセット
- Authors: HyunJun Jung, Patrick Ruhkamp, Guangyao Zhai, Nikolas Brasch, Yitong
Li, Yannick Verdie, Jifei Song, Yiren Zhou, Anil Armagan, Slobodan Ilic, Ales
Leonardis, Benjamin Busam
- Abstract要約: HAMMERは屋内深度推定のための複数の一般的なセンサーからの深度推定を含むデータセットである。
我々は3次元スキャナーとアライメントレンダリングの助けを借りて、信頼性の高い地上真理深度マップを構築した。
一般的な深度推定器は、このデータと典型的な深度センサに基づいて訓練されている。
- 参考スコア(独自算出の注目度): 34.95597838973912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth estimation is a core task in 3D computer vision. Recent methods
investigate the task of monocular depth trained with various depth sensor
modalities. Every sensor has its advantages and drawbacks caused by the nature
of estimates. In the literature, mostly mean average error of the depth is
investigated and sensor capabilities are typically not discussed. Especially
indoor environments, however, pose challenges for some devices. Textureless
regions pose challenges for structure from motion, reflective materials are
problematic for active sensing, and distances for translucent material are
intricate to measure with existing sensors. This paper proposes HAMMER, a
dataset comprising depth estimates from multiple commonly used sensors for
indoor depth estimation, namely ToF, stereo, structured light together with
monocular RGB+P data. We construct highly reliable ground truth depth maps with
the help of 3D scanners and aligned renderings. A popular depth estimators is
trained on this data and typical depth senosors. The estimates are extensively
analyze on different scene structures. We notice generalization issues arising
from various sensor technologies in household environments with challenging but
everyday scene content. HAMMER, which we make publicly available, provides a
reliable base to pave the way to targeted depth improvements and sensor fusion
approaches.
- Abstract(参考訳): 深度推定は3dコンピュータビジョンのコアタスクである。
各種深度センサを用いた単分子深度学習の課題について検討する。
どのセンサーにも、推定の性質によって生じる利点と欠点がある。
文献では、主に深さの平均誤差を調査し、センサの能力について論じることはない。
しかし、特に屋内環境はいくつかのデバイスに課題をもたらす。
テクスチャレス領域は運動からの構造に挑戦し、反射材料はアクティブセンシングに問題があり、半透明材料の距離は既存のセンサーで測定するのに複雑である。
本稿では,屋内深度推定用センサの奥行き推定値であるtof,ステレオ,構造化光と単眼rgb+pデータを組み合わせたデータ集合であるhammerを提案する。
3dスキャナとアライメントレンダリングの助けを借りて,信頼性の高い地上真理深度マップを構築した。
一般的な深度推定器は、このデータと典型的な深度センサに基づいて訓練されている。
推定値は、異なるシーン構造に基づいて広範囲に分析される。
家庭環境における各種センサ技術から生じる一般化問題には,挑戦的ではあるが日常的なシーンコンテンツが存在する。
私たちが公開しているHAMMERは、目標とする深度改善とセンサ融合アプローチへの道を開くための信頼性の高い基盤を提供します。
関連論文リスト
- SelfReDepth: Self-Supervised Real-Time Depth Restoration for Consumer-Grade Sensors [42.48726526726542]
SelfReDepthは、深度復元のための自己教師型ディープラーニング技術である。
複数のシーケンシャルな深度フレームとカラーデータを使用して、時間的コヒーレンスで高品質な深度ビデオを実現する。
我々の結果は、実世界のデータセット上での我々のアプローチのリアルタイムパフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-06-05T15:38:02Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - Unsupervised confidence for LiDAR depth maps and applications [43.474845978673166]
疎LiDAR深度マップの問題に対処するための効果的な教師なしフレームワークを提案する。
筆者らのフレームワークはスパース深度マップの信頼性を推定し,アウトレーヤのフィルタリングを可能にする。
我々は、この成果が広範囲のタスクをどのように改善できるかを実証する。
論文 参考訳(メタデータ) (2022-10-06T17:59:58Z) - Domain Randomization-Enhanced Depth Simulation and Restoration for
Perceiving and Grasping Specular and Transparent Objects [28.84776177634971]
深度復元のための強力なRGBD融合ネットワークSwinDRNetを提案する。
また,ドメインランダム化強化深度シミュレーション(DREDS)によるアクティブステレオ深度システムのシミュレーションも提案する。
我々の深度復元は下流タスクの性能を効果的に向上させることを示す。
論文 参考訳(メタデータ) (2022-08-07T19:17:16Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - DnD: Dense Depth Estimation in Crowded Dynamic Indoor Scenes [68.38952377590499]
複雑な屋内環境の中を移動する単眼カメラから奥行きを推定するための新しい手法を提案する。
提案手法は,静的な背景と複数の移動する人物からなるシーン全体にわたる絶対規模の深度マップを推定する。
論文 参考訳(メタデータ) (2021-08-12T09:12:39Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。