論文の概要: Foundation Feature-Driven Online End-Effector Pose Estimation: A Marker-Free and Learning-Free Approach
- arxiv url: http://arxiv.org/abs/2503.14051v1
- Date: Tue, 18 Mar 2025 09:12:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:14:44.283593
- Title: Foundation Feature-Driven Online End-Effector Pose Estimation: A Marker-Free and Learning-Free Approach
- Title(参考訳): ファンデーション機能駆動型オンラインエンドエフェクタポース推定:マーカーフリーで学習不要なアプローチ
- Authors: Tianshu Wu, Jiyao Zhang, Shiqian Liang, Zhengxiao Han, Hao Dong,
- Abstract要約: 本研究は,機能駆動型オンライン・エンド・エフェクト・オア・ポース推定アルゴリズムを提案する。
トレーニング不要の方法で、ロボットとエンドエフェクターをまたいで一般化する。
実験は、その優れた柔軟性、一般化、パフォーマンスを示します。
- 参考スコア(独自算出の注目度): 4.132336580197184
- License:
- Abstract: Accurate transformation estimation between camera space and robot space is essential. Traditional methods using markers for hand-eye calibration require offline image collection, limiting their suitability for online self-calibration. Recent learning-based robot pose estimation methods, while advancing online calibration, struggle with cross-robot generalization and require the robot to be fully visible. This work proposes a Foundation feature-driven online End-Effector Pose Estimation (FEEPE) algorithm, characterized by its training-free and cross end-effector generalization capabilities. Inspired by the zero-shot generalization capabilities of foundation models, FEEPE leverages pre-trained visual features to estimate 2D-3D correspondences derived from the CAD model and target image, enabling 6D pose estimation via the PnP algorithm. To resolve ambiguities from partial observations and symmetry, a multi-historical key frame enhanced pose optimization algorithm is introduced, utilizing temporal information for improved accuracy. Compared to traditional hand-eye calibration, FEEPE enables marker-free online calibration. Unlike robot pose estimation, it generalizes across robots and end-effectors in a training-free manner. Extensive experiments demonstrate its superior flexibility, generalization, and performance.
- Abstract(参考訳): カメラ空間とロボット空間の正確な変換推定が不可欠である。
手眼の校正にマーカーを使用する従来の手法では、オフラインの画像収集が必要であり、オンラインの自己校正に適している。
近年の学習に基づくロボットのポーズ推定手法は,オンラインキャリブレーションを進めながら,ロボット間の一般化に苦慮し,ロボットが完全に見えるようにする必要がある。
本研究では,FEEPE(Fundation feature-driven online End-Effector Pose Estimation)アルゴリズムを提案する。
基礎モデルのゼロショット一般化機能に着想を得たFEEPEは、事前学習された視覚特徴を利用してCADモデルとターゲット画像から得られた2D-3D対応を推定し、PnPアルゴリズムによる6Dポーズ推定を可能にする。
部分的な観測と対称性からあいまいさを解決するために,時間的情報を活用して精度を向上させる多史的キーフレーム強化ポーズ最適化アルゴリズムを導入した。
従来の手目校正と比較して、FEEPEはマーカーのないオンライン校正を可能にする。
ロボットのポーズ推定とは異なり、ロボットとエンドエフェクターを無訓練で一般化する。
大規模な実験は、その優れた柔軟性、一般化、パフォーマンスを示している。
関連論文リスト
- What Really Matters for Learning-based LiDAR-Camera Calibration [50.2608502974106]
本稿では,学習に基づくLiDAR-Cameraキャリブレーションの開発を再考する。
我々は、広く使われているデータ生成パイプラインによる回帰ベースの手法の限界を識別する。
また,入力データ形式と前処理操作がネットワーク性能に与える影響についても検討する。
論文 参考訳(メタデータ) (2025-01-28T14:12:32Z) - Kalib: Markerless Hand-Eye Calibration with Keypoint Tracking [52.4190876409222]
ハンドアイキャリブレーションでは、カメラとロボット間の変換を推定する。
ディープラーニングの最近の進歩は、マーカーレス技術を提供するが、それらは課題を提示している。
自動的かつ普遍的なマーカーレスハンドアイキャリブレーションパイプラインであるKalibを提案する。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor [0.4143603294943439]
ロボット工学において、モーションキャプチャシステムはローカライズアルゴリズムの精度を測定するために広く利用されている。
これらの機能は、カメラとグローバルポーズセンサーの間で正確で信頼性の高い時空間キャリブレーションパラメータを必要とする。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T20:56:14Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Markerless Camera-to-Robot Pose Estimation via Self-supervised
Sim-to-Real Transfer [26.21320177775571]
本稿では,オンラインカメラ・ロボット・キャリブレーションと自己監督型トレーニング手法を備えたエンドツーエンドのポーズ推定フレームワークを提案する。
我々のフレームワークはロボットのポーズを解くための深層学習と幾何学的ビジョンを組み合わせており、パイプラインは完全に微分可能である。
論文 参考訳(メタデータ) (2023-02-28T05:55:42Z) - Learning Markerless Robot-Depth Camera Calibration and End-Effector Pose
Estimation [0.0]
本研究では,ディープカメラを用いた学習型マーカーレス外部キャリブレーションシステムを提案する。
自動生成された実世界のデータから,エンドエフェクタ(EE)セグメンテーション,単一フレーム回転予測,キーポイント検出のモデルを学習する。
複数のカメラのポーズからのトレーニングデータと、未確認のポーズからのテストデータによるロバスト性は、センチメートル以下の評価と、デシラディアン以下の平均キャリブレーションを与え、推定誤差を与えます。
論文 参考訳(メタデータ) (2022-12-15T00:53:42Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。