論文の概要: EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration
- arxiv url: http://arxiv.org/abs/2305.01191v2
- Date: Tue, 7 Nov 2023 04:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 22:43:30.285887
- Title: EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration
- Title(参考訳): easyhec: 微分可能レンダリングと宇宙探査による高精度で自動的な手眼校正
- Authors: Linghao Chen, Yuzhe Qin, Xiaowei Zhou, Hao Su
- Abstract要約: 我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
- 参考スコア(独自算出の注目度): 49.90228618894857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hand-eye calibration is a critical task in robotics, as it directly affects
the efficacy of critical operations such as manipulation and grasping.
Traditional methods for achieving this objective necessitate the careful design
of joint poses and the use of specialized calibration markers, while most
recent learning-based approaches using solely pose regression are limited in
their abilities to diagnose inaccuracies. In this work, we introduce a new
approach to hand-eye calibration called EasyHeC, which is markerless,
white-box, and delivers superior accuracy and robustness. We propose to use two
key technologies: differentiable rendering-based camera pose optimization and
consistency-based joint space exploration, which enables accurate end-to-end
optimization of the calibration process and eliminates the need for the
laborious manual design of robot joint poses. Our evaluation demonstrates
superior performance in synthetic and real-world datasets, enhancing downstream
manipulation tasks by providing precise camera poses for locating and
interacting with objects. The code is available at the project page:
https://ootts.github.io/easyhec.
- Abstract(参考訳): ハンドアイキャリブレーションはロボット工学において重要な課題であり、操作や握りなどの重要な操作の有効性に直接影響を与える。
この目的を達成するための従来の手法は、共同ポーズの注意深い設計と特別なキャリブレーションマーカーの使用を必要とするが、近年では単にポーズ回帰を用いた学習に基づくアプローチは、不正確さを診断する能力に限られている。
本研究では,マーカーレスでホワイトボックスであり,精度とロバスト性に優れた手眼校正手法であるEasyHeCを提案する。
本研究では,キャリブレーションプロセスの高精度なエンドツーエンド最適化を実現するとともに,ロボットジョイントポーズの煩雑な手作業による設計の必要性をなくすため,2つの重要な技術を使用することを提案する。
本評価は, 合成および実世界のデータセットにおいて優れた性能を示し, オブジェクトの位置決めと対話のための正確なカメラポーズを提供することにより, 下流操作タスクを強化する。
コードはプロジェクトのページで公開されている。
関連論文リスト
- Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor [0.4143603294943439]
ロボット工学において、モーションキャプチャシステムはローカライズアルゴリズムの精度を測定するために広く利用されている。
これらの機能は、カメラとグローバルポーズセンサーの間で正確で信頼性の高い時空間キャリブレーションパラメータを必要とする。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T20:56:14Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - Deep Learning for Camera Calibration and Beyond: A Survey [104.36411095582947]
カメラキャリブレーションでは、キャプチャされたシーケンスから幾何学的特徴を推測するために、カメラパラメータを推定する。
近年の取り組みでは,手動キャリブレーションの繰り返し作業に代えて,学習ベースのソリューションが活用される可能性が示唆されている。
論文 参考訳(メタデータ) (2023-03-19T04:00:05Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Physics and semantic informed multi-sensor calibration via optimization
theory and self-supervised learning [0.0]
カメラライダー・レーダートリオの連成校正に対する総合的なアプローチを提案する。
オンライン直接最適化によるコスト最小化フレームワークと,自己教師型学習(SSL)による2つのターゲットレスキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2022-06-06T19:03:42Z) - Learning-Based Framework for Camera Calibration with Distortion
Correction and High Precision Feature Detection [14.297068346634351]
本稿では,これらのボトルネックに対処する従来の手法と学習に基づくアプローチを組み合わせたハイブリッドカメラキャリブレーションフレームワークを提案する。
特に、このフレームワークは学習に基づくアプローチを利用して、効率的な歪み補正とロバストなチェス盤角座標符号化を行う。
広範に使われている2つのカメラキャリブレーションツールボックスと比較して、実データと合成データの両方の実験結果は、提案フレームワークのより良い堅牢性と高い精度を示す。
論文 参考訳(メタデータ) (2022-02-01T00:19:18Z) - Unified Data Collection for Visual-Inertial Calibration via Deep
Reinforcement Learning [24.999540933593273]
本研究では,ロボットアーム上で自動データ収集を行う動作ポリシーを学習するための新しい定式化を提案する。
本手法はモデルフリー深部強化学習を用いてキャリブレーション過程をコンパクトにモデル化する。
シミュレーションでは、手作りのポリシーよりも10倍速くキャリブレーションを実行できます。
論文 参考訳(メタデータ) (2021-09-30T10:03:56Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。