論文の概要: Converting Depth Images and Point Clouds for Feature-based Pose
Estimation
- arxiv url: http://arxiv.org/abs/2310.14924v1
- Date: Mon, 23 Oct 2023 13:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 19:58:23.839304
- Title: Converting Depth Images and Point Clouds for Feature-based Pose
Estimation
- Title(参考訳): 特徴量推定のための深度画像と点雲の変換
- Authors: Robert L\"osch (1), Mark Sastuba (2), Jonas Toth (1), Bernhard Jung
(1) ((1) Technical University Bergakademie Freiberg, Germany, (2) German
Centre for Rail Traffic Research at the Federal Railway Authority, Germany)
- Abstract要約: 本稿では,従来の奥行き画像に隠された空間的細部を可視化し,深度データを画像に変換する手法を提案する。
Bearing Angleの画像と比較すると、より鮮やかでコントラストの高い画像が得られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, depth sensors have become more and more affordable and have
found their way into a growing amount of robotic systems. However, mono- or
multi-modal sensor registration, often a necessary step for further processing,
faces many challenges on raw depth images or point clouds. This paper presents
a method of converting depth data into images capable of visualizing spatial
details that are basically hidden in traditional depth images. After noise
removal, a neighborhood of points forms two normal vectors whose difference is
encoded into this new conversion. Compared to Bearing Angle images, our method
yields brighter, higher-contrast images with more visible contours and more
details. We tested feature-based pose estimation of both conversions in a
visual odometry task and RGB-D SLAM. For all tested features, AKAZE, ORB, SIFT,
and SURF, our new Flexion images yield better results than Bearing Angle images
and show great potential to bridge the gap between depth data and classical
computer vision. Source code is available here:
https://rlsch.github.io/depth-flexion-conversion.
- Abstract(参考訳): 近年、深度センサーはますます手頃な価格になり、ロボットシステムの数が増えつつある。
しかし、モノモダルセンサやマルチモーダルセンサの登録は、しばしばさらなる処理に必要なステップであり、生の深度画像や点雲の多くの課題に直面している。
本稿では,従来の奥行き画像に隠された空間的細部を可視化する深度データを画像に変換する手法を提案する。
ノイズ除去後、点の近傍は2つの正規ベクトルを形成し、その差はこの新しい変換に符号化される。
軸受角度画像と比較すると,より鮮明な輪郭と細部を備えた,より明るく高コントラストな画像が得られる。
視覚計測タスクとRGB-D SLAMで特徴量に基づくポーズ推定を行った。
また,AkaZE,ORB,SIFT,SURFのすべてのテスト機能に対して,新たなフレキシオン画像はベアリングアングル画像よりも優れた結果を示し,奥行きデータと古典的コンピュータビジョンのギャップを埋める可能性を示した。
ソースコードはhttps://rlsch.github.io/depth-flexion-conversion。
関連論文リスト
- Diff-DOPE: Differentiable Deep Object Pose Estimation [29.703385848843414]
Diff-DOPE, 画像入力を行う6-DoFポーズ精細機, オブジェクトの3次元テクスチャモデル, オブジェクトの初期ポーズを紹介する。
この方法は、画像とモデルの投影の間の視覚的エラーを最小限に抑えるために、オブジェクトのポーズを更新するために微分可能なレンダリングを使用する。
このシンプルで効果的なアイデアは、ポーズ推定データセットで最先端の結果を得ることができることを示す。
論文 参考訳(メタデータ) (2023-09-30T18:52:57Z) - Pyramid Deep Fusion Network for Two-Hand Reconstruction from RGB-D Images [11.100398985633754]
両手で高密度メッシュを復元するためのエンドツーエンドフレームワークを提案する。
我々のフレームワークはResNet50とPointNet++を使って、RGBとpoint cloudから機能を派生しています。
また,異なるスケールで特徴を集約する新しいピラミッド深層核融合ネットワーク (PDFNet) も導入した。
論文 参考訳(メタデータ) (2023-07-12T09:33:21Z) - DeepLSD: Line Segment Detection and Refinement with Deep Image Gradients [105.25109274550607]
ラインセグメントは、視覚タスクでますます使われています。
画像勾配に基づく従来の線検出器は非常に高速で精度が高いが、ノイズの多い画像や困難な条件では頑丈さに欠ける。
我々は、両方の世界を最大限に活用するために、伝統的なアプローチと学習されたアプローチを組み合わせることを提案する。
論文 参考訳(メタデータ) (2022-12-15T12:36:49Z) - Improving Pixel-Level Contrastive Learning by Leveraging Exogenous Depth
Information [7.561849435043042]
近年,コントラスト学習(CL)に基づく自己指導型表現学習が注目されている。
本稿では,深度ネットワークを用いたり,利用可能なデータから測定したりすることで得られる深度情報に焦点を当てる。
比較損失におけるこの推定情報を用いることで、結果が改善され、学習された表現がオブジェクトの形状に従うのがよいことを示す。
論文 参考訳(メタデータ) (2022-11-18T11:45:39Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - Graph-Based Depth Denoising & Dequantization for Point Cloud Enhancement [47.61748619439693]
3Dポイントの雲は通常、センサーが1つ以上の視点で取得した深さの測定から構築される。
以前の作業では、不完全な深度データを3D空間に投影した後、点雲テクティタ後部をノイズ化する。
本研究では,3次元点雲の合成に先立って,検出画像のテクスタイタ事前に直接深度測定を施す。
論文 参考訳(メタデータ) (2021-11-09T04:17:35Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - Back to the Feature: Learning Robust Camera Localization from Pixels to
Pose [114.89389528198738]
画像と3Dモデルから正確な6-DoFのポーズを推定するシーンに依存しないニューラルネットワークPixLocを導入する。
このシステムは、粗いポーズ前の大きな環境でもローカライズできるが、スパース特徴マッチングの精度も向上する。
論文 参考訳(メタデータ) (2021-03-16T17:40:12Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。