論文の概要: Fiducial Exoskeletons: Image-Centric Robot State Estimation
- arxiv url: http://arxiv.org/abs/2601.08034v1
- Date: Mon, 12 Jan 2026 22:04:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:18.965535
- Title: Fiducial Exoskeletons: Image-Centric Robot State Estimation
- Title(参考訳): 学部外骨格:画像中心ロボットの状態推定
- Authors: Cameron Smith, Basile Van Hoorick, Vitor Guizilini, Yue Wang,
- Abstract要約: 画像に基づく3次元ロボット状態推定の再構成であるFiducial Exoskeletonsを紹介する。
まず,1枚のRGB画像から各リンクの6次元ポーズ推定として,ロボットの状態推定を行った。
第2に、学習することなく、リンクごとの6Dポーズ推定を堅牢でシンプルなものにします。
- 参考スコア(独自算出の注目度): 21.491677821308688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Fiducial Exoskeletons, an image-based reformulation of 3D robot state estimation that replaces cumbersome procedures and motor-centric pipelines with single-image inference. Traditional approaches - especially robot-camera extrinsic estimation - often rely on high-precision actuators and require time-consuming routines such as hand-eye calibration. In contrast, modern learning-based robot control is increasingly trained and deployed from RGB observations on lower-cost hardware. Our key insight is twofold. First, we cast robot state estimation as 6D pose estimation of each link from a single RGB image: the robot-camera base transform is obtained directly as the estimated base-link pose, and the joint state is recovered via a lightweight global optimization that enforces kinematic consistency with the observed link poses (optionally warm-started with encoder readings). Second, we make per-link 6D pose estimation robust and simple - even without learning - by introducing the fiducial exoskeleton: a lightweight 3D-printed mount with a fiducial marker on each link and known marker-link geometry. This design yields robust camera-robot extrinsics, per-link SE(3) poses, and joint-angle state from a single image, enabling robust state estimation even on unplugged robots. Demonstrated on a low-cost robot arm, fiducial exoskeletons substantially simplify setup while improving calibration, state accuracy, and downstream 3D control performance. We release code and printable hardware designs to enable further algorithm-hardware co-design.
- Abstract(参考訳): 画像に基づく3次元ロボット状態推定の再構成であるFiducial Exoskeletonsを導入する。
従来のアプローチ、特にロボットカメラの外部推定は、しばしば高精度のアクチュエータに依存し、手眼の校正のような時間を要する。
対照的に、現代的な学習ベースのロボット制御は、低コストのハードウェア上でのRGB観測から、ますます訓練され、デプロイされるようになっている。
私たちの重要な洞察は2つです。
まず、1つのRGB画像から各リンクの6次元ポーズ推定としてロボット状態推定を行い、ロボットカメラベース変換を推定ベースリンクポーズとして直接取得し、観測されたリンクポーズと運動的整合性(任意にエンコーダ読み取りでウォームスタート)を強制する軽量なグローバル最適化により関節状態を回復する。
第二に、各リンクにフィデューシャルマーカーと既知のマーカーリンク幾何を持つ軽量な3Dプリントマウント(英語版)を導入することで、学習なしでも、リンクあたりの6Dポーズを頑健かつシンプルに推定する。
この設計は、1つの画像からロバストなカメラロボット外在物、リンクごとのSE(3)ポーズ、およびジョイントアングル状態を生成し、無プラグロボットでもロバストな状態推定を可能にする。
低コストのロボットアームで実証されたフィデューシャル・エクソスケトンは、キャリブレーション、状態精度、下流3D制御性能を改善しながら、セットアップを大幅に単純化する。
我々は、さらなるアルゴリズムハードウェアの共同設計を可能にするために、コードとプリント可能なハードウェア設計をリリースする。
関連論文リスト
- RoboTAG: End-to-end Robot Configuration Estimation via Topological Alignment Graph [62.270763554624615]
単眼のRGB画像からロボットのポーズを推定することは、ロボット工学とコンピュータビジョンにおける課題である。
既存の手法は通常、2Dビジュアルバックボーン上にネットワークを構築し、トレーニングのためにラベル付きデータに大きく依存する。
ロボットトポロジカルアライメントグラフ(RoboTAG)を提案する。このグラフは3次元分岐を組み込んで3次元前処理を注入し、2次元および3次元表現の共進化を可能にする。
論文 参考訳(メタデータ) (2025-11-11T00:49:15Z) - RoboPEPP: Vision-Based Robot Pose and Joint Angle Estimation through Embedding Predictive Pre-Training [27.63332596592781]
関節角度の不明な関節ロボットの視覚に基づくポーズ推定は、協調ロボット工学や人間とロボットのインタラクションタスクに応用できる。
現在のフレームワークでは、ニューラルネットワークエンコーダを使用して、画像の特徴と下流層を抽出し、関節角とロボットのポーズを予測する。
本稿では,ロボットの物理モデルに関する情報を,マスクを用いた自己教師型埋め込み予測アーキテクチャを用いてエンコーダに融合させる手法であるRoboPEPPを紹介する。
論文 参考訳(メタデータ) (2024-11-26T18:26:17Z) - Kalib: Easy Hand-Eye Calibration with Reference Point Tracking [52.4190876409222]
カリブ (Kalib) は、視覚基礎モデルの一般化性を利用して課題を克服する手眼自動校正法である。
校正中は、ロボットの後ろの空間内のカメラ座標3D座標に運動基準点を追跡する。
Kalibのユーザフレンドリな設計と最小限のセットアップ要件により、非構造化環境での継続的操作のソリューションとなり得る。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - Unifying Scene Representation and Hand-Eye Calibration with 3D Foundation Models [13.58353565350936]
環境の表現はロボティクスにおける中心的な課題である。
伝統的に、ユーザーはチェッカーボードやエイプリルタグなどの特定の外部マーカーを使用してカメラを校正する必要がある。
本稿では,マニピュレータ搭載RGBカメラを搭載したロボットシステムへの3Dファウンデーション表現の統合を提唱する。
論文 参考訳(メタデータ) (2024-04-17T18:29:32Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - External Camera-based Mobile Robot Pose Estimation for Collaborative
Perception with Smart Edge Sensors [22.5939915003931]
本稿では,移動ロボットのポーズを多視点RGB画像を用いた静的カメラネットワークのアロセントリック座標で推定する手法を提案する。
画像はオンラインで、深層ニューラルネットワークによってスマートエッジセンサーでローカルに処理され、ロボットを検出する。
ロボットのポーズを正確に推定すると、その観察は同中心のシーンモデルに融合することができる。
論文 参考訳(メタデータ) (2023-03-07T11:03:33Z) - Robot Self-Calibration Using Actuated 3D Sensors [0.0]
本稿では,ロボットのキャリブレーションをオフラインのSLAM問題として扱う。
これにより、任意の眼深度センサのみを用いてロボットのキャリブレーションを行うことができる。
各種の3Dセンサーを装着した実ロボットに対して,システムの詳細評価を行った。
論文 参考訳(メタデータ) (2022-06-07T16:35:08Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - Monocular 3D Reconstruction of Interacting Hands via Collision-Aware
Factorized Refinements [96.40125818594952]
単眼のRGB画像から3Dインタラクションハンドを再構築する試みを初めて行った。
提案手法では, 高精度な3次元ポーズと最小の衝突で3次元ハンドメッシュを生成することができる。
論文 参考訳(メタデータ) (2021-11-01T08:24:10Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。