論文の概要: Bi-Manual Joint Camera Calibration and Scene Representation
- arxiv url: http://arxiv.org/abs/2505.24819v1
- Date: Fri, 30 May 2025 17:22:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.094878
- Title: Bi-Manual Joint Camera Calibration and Scene Representation
- Title(参考訳): 手動共同カメラキャリブレーションとシーン表現
- Authors: Haozhan Tang, Tianyi Zhang, Matthew Johnson-Roberson, Weiming Zhi,
- Abstract要約: Bi-Manual Joint and Representation Framework (Bi-JCR)について紹介する。
Bi-JCRは、カメラを装着した複数のロボットマニピュレータがキャリブレーションマーカーの画像を撮影することを回避できる。
Bi-JCRは、密集したマーカーのないマルチビュー対応に3D基礎モデルを活用することにより、(i)各カメラからエンドエフェクタへの外部変換、(ii)マニピュレータ間のアーム間相対的なポーズ、(iii)共有ワークスペースの統一的でスケール一貫性のある3D表現を共同で推定する。
- 参考スコア(独自算出の注目度): 13.58353565350936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robot manipulation, especially bimanual manipulation, often requires setting up multiple cameras on multiple robot manipulators. Before robot manipulators can generate motion or even build representations of their environments, the cameras rigidly mounted to the robot need to be calibrated. Camera calibration is a cumbersome process involving collecting a set of images, with each capturing a pre-determined marker. In this work, we introduce the Bi-Manual Joint Calibration and Representation Framework (Bi-JCR). Bi-JCR enables multiple robot manipulators, each with cameras mounted, to circumvent taking images of calibration markers. By leveraging 3D foundation models for dense, marker-free multi-view correspondence, Bi-JCR jointly estimates: (i) the extrinsic transformation from each camera to its end-effector, (ii) the inter-arm relative poses between manipulators, and (iii) a unified, scale-consistent 3D representation of the shared workspace, all from the same captured RGB image sets. The representation, jointly constructed from images captured by cameras on both manipulators, lives in a common coordinate frame and supports collision checking and semantic segmentation to facilitate downstream bimanual coordination tasks. We empirically evaluate the robustness of Bi-JCR on a variety of tabletop environments, and demonstrate its applicability on a variety of downstream tasks.
- Abstract(参考訳): ロボット操作、特にバイマニュアル操作は、複数のロボットマニピュレータに複数のカメラを設置する必要があることが多い。
ロボットマニピュレータが動きを発生させる前には、ロボットに固定されたカメラを校正する必要がある。
カメラのキャリブレーションは、画像の集合を収集する面倒なプロセスであり、それぞれが事前に決定されたマーカーをキャプチャする。
本稿では,バイマニュアル共同校正・表現フレームワーク(Bi-JCR)を紹介する。
Bi-JCRは、カメラを装着した複数のロボットマニピュレータがキャリブレーションマーカーの画像を撮影することを回避できる。
密集したマーカーのないマルチビュー対応に3次元基礎モデルを活用することで、Bi-JCRは共同で次のように推定する。
(i)各カメラからエンドエフェクターへの外部変換
二 マニピュレータ間の武器間相対的なポーズ及び
(iii)同じキャプチャされたRGBイメージセットから、共有ワークスペースの統一されたスケール一貫性のある3D表現。
この表現は、両マニピュレータのカメラが捉えた画像から共同で構築され、共通の座標フレームに住み、下流の双方向調整作業を容易にする衝突チェックとセマンティックセグメンテーションをサポートする。
様々なテーブルトップ環境におけるBi-JCRのロバスト性を実証的に評価し,様々な下流タスクに適用可能であることを示す。
関連論文リスト
- ARC-Calib: Autonomous Markerless Camera-to-Robot Calibration via Exploratory Robot Motions [15.004750210002152]
ARC-Calibはモデルベースのマーカーレスカメラ・ロボットキャリブレーションフレームワークである。
完全に自律的で、多様なロボットにまたがって一般化できる。
論文 参考訳(メタデータ) (2025-03-18T20:03:32Z) - Automatic Calibration of a Multi-Camera System with Limited Overlapping Fields of View for 3D Surgical Scene Reconstruction [0.7165255458140439]
本研究の目的は3次元手術シーン再構築のための自動かつ正確な外部カメラキャリブレーション手法を開発することである(3D-SSR)。
天井搭載プロジェクタを用いたマルチスケールマーカー(MSM)の投影に基づく,新しい,高速かつ完全自動キャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2025-01-27T17:10:33Z) - Kalib: Easy Hand-Eye Calibration with Reference Point Tracking [52.4190876409222]
カリブ (Kalib) は、視覚基礎モデルの一般化性を利用して課題を克服する手眼自動校正法である。
校正中は、ロボットの後ろの空間内のカメラ座標3D座標に運動基準点を追跡する。
Kalibのユーザフレンドリな設計と最小限のセットアップ要件により、非構造化環境での継続的操作のソリューションとなり得る。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - HandDGP: Camera-Space Hand Mesh Prediction with Differentiable Global Positioning [1.4515751892711464]
本稿では,2D-3D対応問題に対処するエンドツーエンドソリューションを提案する。
このソリューションは、新しい差別化可能なグローバル位置決めモジュールを通じて、カメラ空間出力からネットワークの他の部分へのバックプロパゲーションを可能にする。
いくつかのベースラインと最先端のアプローチに対する評価において、我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-07-22T17:59:01Z) - Unifying Scene Representation and Hand-Eye Calibration with 3D Foundation Models [13.58353565350936]
環境の表現はロボティクスにおける中心的な課題である。
伝統的に、ユーザーはチェッカーボードやエイプリルタグなどの特定の外部マーカーを使用してカメラを校正する必要がある。
本稿では,マニピュレータ搭載RGBカメラを搭載したロボットシステムへの3Dファウンデーション表現の統合を提唱する。
論文 参考訳(メタデータ) (2024-04-17T18:29:32Z) - Human Mesh Recovery from Arbitrary Multi-view Images [57.969696744428475]
任意の多視点画像からU-HMR(Unified Human Mesh Recovery)を分離・征服する枠組みを提案する。
特にU-HMRは、分離された構造と、カメラとボディーデカップリング(CBD)、カメラポーズ推定(CPE)、任意のビューフュージョン(AVF)の2つの主要コンポーネントから構成されている。
我々は、Human3.6M、MPI-INF-3DHP、TotalCaptureの3つの公開データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2024-03-19T04:47:56Z) - Anyview: Generalizable Indoor 3D Object Detection with Variable Frames [63.51422844333147]
我々は,AnyViewという新しい3D検出フレームワークを実用化するために提案する。
本手法は, 単純かつクリーンなアーキテクチャを用いて, 高い一般化性と高い検出精度を実現する。
論文 参考訳(メタデータ) (2023-10-09T02:15:45Z) - RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB
Video [76.86512780916827]
本稿では,1台のRGBカメラによる骨格ポーズのモーションキャプチャと手の表面形状をリアルタイムに計測する手法を提案する。
RGBデータの本質的な深さの曖昧さに対処するために,我々は新しいマルチタスクCNNを提案する。
RGBの片手追跡と3D再構築パイプラインの個々のコンポーネントを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-22T12:53:56Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。