論文の概要: Kalib: Markerless Hand-Eye Calibration with Keypoint Tracking
- arxiv url: http://arxiv.org/abs/2408.10562v1
- Date: Tue, 20 Aug 2024 06:03:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 15:03:52.594372
- Title: Kalib: Markerless Hand-Eye Calibration with Keypoint Tracking
- Title(参考訳): Kalib:キーポイントトラッキングを備えたマーカーレスハンドアイキャリブレーション
- Authors: Tutian Tang, Minghao Liu, Wenqiang Xu, Cewu Lu,
- Abstract要約: ハンドアイキャリブレーションでは、カメラとロボット間の変換を推定する。
ディープラーニングの最近の進歩は、マーカーレス技術を提供するが、それらは課題を提示している。
自動的かつ普遍的なマーカーレスハンドアイキャリブレーションパイプラインであるKalibを提案する。
- 参考スコア(独自算出の注目度): 52.4190876409222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hand-eye calibration involves estimating the transformation between the camera and the robot. Traditional methods rely on fiducial markers, involving much manual labor and careful setup. Recent advancements in deep learning offer markerless techniques, but they present challenges, including the need for retraining networks for each robot, the requirement of accurate mesh models for data generation, and the need to address the sim-to-real gap. In this letter, we propose Kalib, an automatic and universal markerless hand-eye calibration pipeline that leverages the generalizability of visual foundation models to eliminate these barriers. In each calibration process, Kalib uses keypoint tracking and proprioceptive sensors to estimate the transformation between a robot's coordinate space and its corresponding points in camera space. Our method does not require training new networks or access to mesh models. Through evaluations in simulation environments and the real-world dataset DROID, Kalib demonstrates superior accuracy compared to recent baseline methods. This approach provides an effective and flexible calibration process for various robot systems by simplifying setup and removing dependency on precise physical markers.
- Abstract(参考訳): ハンドアイキャリブレーションでは、カメラとロボット間の変換を推定する。
伝統的な手法は、多くの手作業と注意深いセットアップを含む、フィデューシャルマーカーに依存している。
ディープラーニングの最近の進歩は、マーカーレス技術を提供しているが、それらは、各ロボットのためのネットワークの再トレーニングの必要性、データ生成のための正確なメッシュモデルの必要性、そして、sim-to-realギャップに対処する必要性など、課題を提示している。
本稿では,視覚基盤モデルの一般化性を活用し,これらの障壁を解消する自動的かつ普遍的マーカーレスハンドアイ校正パイプラインであるKalibを提案する。
キャリブレーションの各過程において、カリブは、ロボットの座標空間とカメラ空間の対応する点の間の変換を推定するために、キーポイントトラッキングとプロプリセプティブセンサーを使用する。
我々の手法は、新しいネットワークのトレーニングやメッシュモデルへのアクセスを必要としない。
シミュレーション環境と実世界のデータセットDROIDの評価を通じて、Kalibは最近のベースライン手法よりも精度が高いことを示した。
このアプローチは、セットアップを簡素化し、正確な物理的マーカーへの依存を取り除くことにより、様々なロボットシステムに対して効果的で柔軟な校正プロセスを提供する。
関連論文リスト
- Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor [0.4143603294943439]
ロボット工学において、モーションキャプチャシステムはローカライズアルゴリズムの精度を測定するために広く利用されている。
これらの機能は、カメラとグローバルポーズセンサーの間で正確で信頼性の高い時空間キャリブレーションパラメータを必要とする。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T20:56:14Z) - CalibFormer: A Transformer-based Automatic LiDAR-Camera Calibration Network [11.602943913324653]
CalibFormerは自動LiDARカメラキャリブレーションのためのエンドツーエンドネットワークである。
高精細度表現を実現するために、複数のカメラ層とLiDAR画像層を集約する。
平均翻訳誤差は0.8751 Mathrmcm$, 平均回転誤差は0.0562 circ$であった。
論文 参考訳(メタデータ) (2023-11-26T08:59:30Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - Unified Data Collection for Visual-Inertial Calibration via Deep
Reinforcement Learning [24.999540933593273]
本研究では,ロボットアーム上で自動データ収集を行う動作ポリシーを学習するための新しい定式化を提案する。
本手法はモデルフリー深部強化学習を用いてキャリブレーション過程をコンパクトにモデル化する。
シミュレーションでは、手作りのポリシーよりも10倍速くキャリブレーションを実行できます。
論文 参考訳(メタデータ) (2021-09-30T10:03:56Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。