論文の概要: Unsupervised confidence for LiDAR depth maps and applications
- arxiv url: http://arxiv.org/abs/2210.03118v1
- Date: Thu, 6 Oct 2022 17:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 17:02:25.159681
- Title: Unsupervised confidence for LiDAR depth maps and applications
- Title(参考訳): LiDAR深度マップの教師なし信頼と応用
- Authors: Andrea Conti, Matteo Poggi, Filippo Aleotti and Stefano Mattoccia
- Abstract要約: 疎LiDAR深度マップの問題に対処するための効果的な教師なしフレームワークを提案する。
筆者らのフレームワークはスパース深度マップの信頼性を推定し,アウトレーヤのフィルタリングを可能にする。
我々は、この成果が広範囲のタスクをどのように改善できるかを実証する。
- 参考スコア(独自算出の注目度): 43.474845978673166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Depth perception is pivotal in many fields, such as robotics and autonomous
driving, to name a few. Consequently, depth sensors such as LiDARs rapidly
spread in many applications. The 3D point clouds generated by these sensors
must often be coupled with an RGB camera to understand the framed scene
semantically. Usually, the former is projected over the camera image plane,
leading to a sparse depth map. Unfortunately, this process, coupled with the
intrinsic issues affecting all the depth sensors, yields noise and gross
outliers in the final output. Purposely, in this paper, we propose an effective
unsupervised framework aimed at explicitly addressing this issue by learning to
estimate the confidence of the LiDAR sparse depth map and thus allowing for
filtering out the outliers. Experimental results on the KITTI dataset highlight
that our framework excels for this purpose. Moreover, we demonstrate how this
achievement can improve a wide range of tasks.
- Abstract(参考訳): 深度知覚は、ロボット工学や自動運転など、多くの分野において重要な要素である。
その結果、LiDARのような深度センサーは多くの用途で急速に普及した。
これらのセンサーによって生成された3Dポイントの雲は、フレーム化されたシーンを意味的に理解するために、しばしばRGBカメラと結合されなければならない。
通常は、前者はカメラのイメージプレーンの上に投影され、疎遠な深度マップに繋がる。
残念ながら、このプロセスはすべての深度センサーに影響する本質的な問題と相まって、最終出力のノイズと粗悪な外れ値を生み出します。
本稿では,lidarスパース深度マップの信頼度を推定し,異常値のフィルタリングを可能にすることにより,この問題を明示的に解決するための効果的な非教師付きフレームワークを提案する。
KITTIデータセットの実験結果は、我々のフレームワークがこの目的のために優れていることを強調している。
さらに、この成果が幅広いタスクをどのように改善できるかを実証する。
関連論文リスト
- Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Is my Depth Ground-Truth Good Enough? HAMMER -- Highly Accurate
Multi-Modal Dataset for DEnse 3D Scene Regression [34.95597838973912]
HAMMERは屋内深度推定のための複数の一般的なセンサーからの深度推定を含むデータセットである。
我々は3次元スキャナーとアライメントレンダリングの助けを借りて、信頼性の高い地上真理深度マップを構築した。
一般的な深度推定器は、このデータと典型的な深度センサに基づいて訓練されている。
論文 参考訳(メタデータ) (2022-05-09T21:25:09Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Gated2Gated: Self-Supervised Depth Estimation from Gated Images [22.415893281441928]
ゲーテッドカメラは、高解像度の3D深度でLiDARセンサーをスキャンする代替品として有望だ。
そこで本研究では,ゲート強度プロファイルと時間的一貫性をトレーニング信号として用いた完全自己教師型深度推定手法を提案する。
論文 参考訳(メタデータ) (2021-12-04T19:47:38Z) - Multi-Modal Depth Estimation Using Convolutional Neural Networks [0.8701566919381223]
本論文では, 厳しい気象条件下での遠距離センサデータと単一カメラ画像からの深度予測について考察する。
ディープラーニングアプローチを適用して深度を推定するカメラ、レーダー、ライダーなど、さまざまなセンサーモダリティの重要性を探ります。
論文 参考訳(メタデータ) (2020-12-17T15:31:49Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z) - Uncertainty depth estimation with gated images for 3D reconstruction [14.51429478464939]
Gated Imagingは、自動運転車の新興技術だ。
我々は,Gated2Depthフレームワークを拡張して,深度推定のためのさらなる信頼度測定を行う。
論文 参考訳(メタデータ) (2020-03-11T06:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。