論文の概要: Hydra: Marker-Free RGB-D Hand-Eye Calibration
- arxiv url: http://arxiv.org/abs/2504.20584v1
- Date: Tue, 29 Apr 2025 09:39:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.8279
- Title: Hydra: Marker-Free RGB-D Hand-Eye Calibration
- Title(参考訳): ハイドラ:マーカーフリーのRGB-Dハンドアイキャリブレーション
- Authors: Martin Huber, Huanyu Tian, Christopher E. Mower, Lucas-Raphael Müller, Sébastien Ourselin, Christos Bergeles, Tom Vercauteren,
- Abstract要約: 本研究は, 反復的近点法(ICP)アルゴリズムの新たな実装を用いて, マーカーフリーハンドアイ校正のためのRGB-D画像に基づくアプローチを提案する。
提案手法は, 約90%のキャリブレーションを達成し, 大域的最適度に対して2~3倍の収束率を示す。
提案手法は従来の手法 (タスク空間では7mm) よりも有意に精度が向上し, マーカーフリーであった。
- 参考スコア(独自算出の注目度): 8.838143424810786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents an RGB-D imaging-based approach to marker-free hand-eye calibration using a novel implementation of the iterative closest point (ICP) algorithm with a robust point-to-plane (PTP) objective formulated on a Lie algebra. Its applicability is demonstrated through comprehensive experiments using three well known serial manipulators and two RGB-D cameras. With only three randomly chosen robot configurations, our approach achieves approximately 90% successful calibrations, demonstrating 2-3x higher convergence rates to the global optimum compared to both marker-based and marker-free baselines. We also report 2 orders of magnitude faster convergence time (0.8 +/- 0.4 s) for 9 robot configurations over other marker-free methods. Our method exhibits significantly improved accuracy (5 mm in task space) over classical approaches (7 mm in task space) whilst being marker-free. The benchmarking dataset and code are open sourced under Apache 2.0 License, and a ROS 2 integration with robot abstraction is provided to facilitate deployment.
- Abstract(参考訳): 本研究では,RGB-D画像を用いたマーカーフリーハンドアイキャリブレーションの手法として,リー代数上に定式化されたロバストな点対平面(PTP)を用いたICPアルゴリズムの新たな実装を提案する。
その適用性は、よく知られた3つのシリアルマニピュレータと2つのRGB-Dカメラを用いた包括的な実験によって実証される。
ランダムに選択された3つのロボット構成で約90%のキャリブレーションを成功させ、マーカーベースとマーカーフリーベースラインの双方と比較して、グローバルな最適度に対して2~3倍の収束率を示す。
また,他のマーカーフリーな手法に比べて,9つのロボット構成に対して,最大収束時間(0.8+/-0.4秒)が2桁速くなることを報告した。
提案手法は従来の手法 (タスク空間では7mm) よりも有意に精度が向上し, マーカーフリーであった。
ベンチマークデータセットとコードはApache 2.0ライセンス下でオープンソースとして公開されている。
関連論文リスト
- SplatPose: Geometry-Aware 6-DoF Pose Estimation from Single RGB Image via 3D Gaussian Splatting [3.6688867031495223]
SplatPoseは3次元ガウススティング(3DGS)を2分岐ニューラルアーキテクチャで合成し,高精度なポーズ推定を実現する新しいフレームワークである。
3つのベンチマークデータセットの実験では、SplatPoseが最先端の6-DoFを1つのRGB設定で推定精度で達成していることが示されている。
論文 参考訳(メタデータ) (2025-03-07T06:40:06Z) - CalibRefine: Deep Learning-Based Online Automatic Targetless LiDAR-Camera Calibration with Iterative and Attention-Driven Post-Refinement [5.069968819561576]
CalibRefineは完全に自動化され、ターゲットレス、オンラインキャリブレーションフレームワークである。
我々は,CalibRefineが人間の関与を最小限に抑えた高精度キャリブレーション結果を提供することを示した。
本研究は、オブジェクトレベルの特徴マッチングが、反復的かつ自己監督的な注意に基づく調整と相まって、複雑で現実的な条件下でのセンサの融合を可能にすることを明らかにする。
論文 参考訳(メタデータ) (2025-02-24T20:53:42Z) - Kalib: Easy Hand-Eye Calibration with Reference Point Tracking [52.4190876409222]
カリブ (Kalib) は、視覚基礎モデルの一般化性を利用して課題を克服する手眼自動校正法である。
校正中は、ロボットの後ろの空間内のカメラ座標3D座標に運動基準点を追跡する。
Kalibのユーザフレンドリな設計と最小限のセットアップ要件により、非構造化環境での継続的操作のソリューションとなり得る。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - Vanishing Point Estimation in Uncalibrated Images with Prior Gravity
Direction [82.72686460985297]
我々はマンハッタンのフレームを推定する問題に取り組む。
2つの新しい2行解法が導出され、そのうちの1つは既存の解法に影響を与える特異点に悩まされない。
また、局所最適化の性能を高めるために、任意の行で実行される新しい最小でないメソッドを設計する。
論文 参考訳(メタデータ) (2023-08-21T13:03:25Z) - Robot Self-Calibration Using Actuated 3D Sensors [0.0]
本稿では,ロボットのキャリブレーションをオフラインのSLAM問題として扱う。
これにより、任意の眼深度センサのみを用いてロボットのキャリブレーションを行うことができる。
各種の3Dセンサーを装着した実ロボットに対して,システムの詳細評価を行った。
論文 参考訳(メタデータ) (2022-06-07T16:35:08Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - Kimera-Multi: Robust, Distributed, Dense Metric-Semantic SLAM for
Multi-Robot Systems [92.26462290867963]
Kimera-Multiは、最初のマルチロボットシステムであり、不正なインターループとイントラロボットループの閉鎖を識別し拒否することができる。
我々は、フォトリアリスティックシミュレーション、SLAMベンチマークデータセット、地上ロボットを用いて収集された屋外データセットの挑戦において、Kimera-Multiを実証した。
論文 参考訳(メタデータ) (2021-06-28T03:56:40Z) - RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB
Video [76.86512780916827]
本稿では,1台のRGBカメラによる骨格ポーズのモーションキャプチャと手の表面形状をリアルタイムに計測する手法を提案する。
RGBデータの本質的な深さの曖昧さに対処するために,我々は新しいマルチタスクCNNを提案する。
RGBの片手追跡と3D再構築パイプラインの個々のコンポーネントを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-22T12:53:56Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。