論文の概要: RobotFingerPrint: Unified Gripper Coordinate Space for Multi-Gripper Grasp Synthesis and Transfer
- arxiv url: http://arxiv.org/abs/2409.14519v2
- Date: Mon, 03 Mar 2025 00:51:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-04 16:10:40.376118
- Title: RobotFingerPrint: Unified Gripper Coordinate Space for Multi-Gripper Grasp Synthesis and Transfer
- Title(参考訳): RobotFingerPrint:マルチグルーパーグラフ合成と転送のための統一グルーパー座標空間
- Authors: Ninad Khargonkar, Luis Felipe Casas, Balakrishnan Prabhakaran, Yu Xiang,
- Abstract要約: 本稿では,統一グリッパー座標空間(Unified Gripper Coordinate Space)という新たなグリップ表現を導入する。
我々の表現は球面座標を利用して、異なるロボットグリップにまたがる共有座標空間を作成する。
- 参考スコア(独自算出の注目度): 3.84876707968786
- License:
- Abstract: We introduce a novel grasp representation named the Unified Gripper Coordinate Space (UGCS) for grasp synthesis and grasp transfer. Our representation leverages spherical coordinates to create a shared coordinate space across different robot grippers, enabling it to synthesize and transfer grasps for both novel objects and previously unseen grippers. The strength of this representation lies in the ability to map palm and fingers of a gripper and the unified coordinate space. Grasp synthesis is formulated as predicting the unified spherical coordinates on object surface points via a conditional variational autoencoder. The predicted unified gripper coordinates establish exact correspondences between the gripper and object points, which is used to optimize grasp pose and joint values. Grasp transfer is facilitated through the point-to-point correspondence between any two (potentially unseen) grippers and solved via a similar optimization. Extensive simulation and real-world experiments showcase the efficacy of the unified grasp representation for grasp synthesis in generating stable and diverse grasps. Similarly, we showcase real-world grasp transfer from human demonstrations across different objects.
- Abstract(参考訳): 本稿では,統一グリッパー座標空間 (Unified Gripper Coordinate Space, UGCS) と呼ばれる新しいグリップ表現を導入する。
我々の表現は球面座標を利用して、異なるロボットグリップにまたがる共有座標空間を作成し、新しい物体とそれまで目に見えないグリップの両方のグリップを合成し、転送することができる。
この表現の強さは、グリップの手のひらと指と統一された座標空間をマッピングする能力にある。
グラフ合成は、条件付き変分オートエンコーダを介して、物体表面上の統一球面座標を予測するものとして定式化される。
予測された統合グリップパー座標は、グリップポーズとジョイント値の最適化に使用される、グリップパーとオブジェクトポイントの正確な対応を確立する。
グラフ転送は、任意の2つの(潜在的に見えない)グリップ間のポイント・ツー・ポイント対応によって促進され、同様の最適化によって解決される。
広汎なシミュレーションと実世界の実験は、安定かつ多様なグリップを生成する際に、グリップ合成のための統一グリップ表現の有効性を示す。
同様に、異なる物体にまたがる人間の実演から現実世界のつかみ移動を示す。
関連論文リスト
- SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z) - NDC-Scene: Boost Monocular 3D Semantic Scene Completion in Normalized
Device Coordinates Space [77.6067460464962]
SSC(Monocular 3D Semantic Scene Completion)は、単一の画像から複雑なセマンティックスや幾何学的形状を予測し、3D入力を必要としないため、近年大きな注目を集めている。
我々は,3次元空間に投影された2次元特徴の特徴的曖昧さ,3次元畳み込みのPose Ambiguity,深さの異なる3次元畳み込みにおける不均衡など,現在の最先端手法におけるいくつかの重要な問題を明らかにする。
シーン補完ネットワーク(NDC-Scene)を考案し,2を直接拡張する。
論文 参考訳(メタデータ) (2023-09-26T02:09:52Z) - Coordinate Quantized Neural Implicit Representations for Multi-view
Reconstruction [28.910183274743872]
量子化座標を用いたニューラル暗黙表現を導入し、最適化時のフィールドの不確かさとあいまいさを低減する。
我々は離散座標とその位置符号化を用いてボリュームレンダリングを通して暗黙の関数を学習する。
広く使用されているベンチマークによる評価は、最先端技術よりも優位性を示している。
論文 参考訳(メタデータ) (2023-08-21T20:27:33Z) - Auxiliary Tasks Benefit 3D Skeleton-based Human Motion Prediction [106.06256351200068]
本稿では,補助的なタスクを伴うモデル学習フレームワークを提案する。
補助作業では、部分体関節の座標はマスキングまたはノイズ付加によって損なわれる。
本稿では,不完全かつ破損した動作データを処理できる新しい補助適応変換器を提案する。
論文 参考訳(メタデータ) (2023-08-17T12:26:11Z) - AdaptivePose++: A Powerful Single-Stage Network for Multi-Person Pose
Regression [66.39539141222524]
そこで本研究では,ヒトの部位を適応点として表現し,微細な身体表現法を提案する。
提案するボディ表現では,AdaptivePoseと呼ばれる,コンパクトなシングルステージ多人数ポーズ回帰ネットワークを提供する。
本稿では,AdaptivePoseの有効性を検証するために,2D/3D多人数ポーズ推定タスクにAdaptivePoseを用いる。
論文 参考訳(メタデータ) (2022-10-08T12:54:20Z) - PolarMOT: How Far Can Geometric Relations Take Us in 3D Multi-Object
Tracking? [62.997667081978825]
グラフのノードとして3D検出を符号化し、グラフエッジ上の局所極座標を用いてオブジェクト間の空間的および時間的対関係を符号化する。
これにより、グラフニューラルネットワークは、時間的および空間的相互作用を効果的に符号化することができる。
我々はnuScenesデータセット上に新しい最先端のデータセットを構築し、さらに重要なことに、私たちの手法であるPolarMOTが、異なる場所にわたって驚くほどよく一般化されていることを示す。
論文 参考訳(メタデータ) (2022-08-03T10:06:56Z) - A Dual-Masked Auto-Encoder for Robust Motion Capture with
Spatial-Temporal Skeletal Token Completion [13.88656793940129]
本稿では, 3次元関節を再構成し, 個々の関節を識別するための適応的, アイデンティティを意識した三角測量モジュールを提案する。
次に,D-MAE(Dual-Masked Auto-Encoder)を提案する。
重大なデータ損失シナリオを扱う上で提案するモデルの能力を実証するために,高精度で挑戦的なモーションキャプチャデータセットに貢献する。
論文 参考訳(メタデータ) (2022-07-15T10:00:43Z) - NeuralGrasps: Learning Implicit Representations for Grasps of Multiple
Robotic Hands [15.520158510964757]
複数のロボットハンドから物体をつかむ神経暗黙表現を導入する。
複数のロボットハンドにまたがる異なるグリップは、共有潜在空間に符号化される。
グリップトランスファーは、ロボット間で把握スキルを共有し、ロボットが人間から把握スキルを学習できるようにする可能性がある。
論文 参考訳(メタデータ) (2022-07-06T20:33:32Z) - Speech2AffectiveGestures: Synthesizing Co-Speech Gestures with Generative Adversarial Affective Expression Learning [52.73083137245969]
そこで本稿では, 感情表現を適切に表現し, 3次元ポーズを合成する生成的対人ネットワークを提案する。
本ネットワークは,入力音声とシードポーズから符号化された特徴の組込み空間からジェスチャを合成するジェネレータと,合成されたポーズシーケンスと実3Dポーズシーケンスを識別する識別器とから構成される。
論文 参考訳(メタデータ) (2021-07-31T15:13:39Z) - HandsFormer: Keypoint Transformer for Monocular 3D Pose Estimation
ofHands and Object in Interaction [33.661745138578596]
単色画像からの密接な相互作用で両手の3次元ポーズを推定する頑健で正確な手法を提案する。
本手法は, 両手関節の電位2d位置をヒートマップの極値として抽出することから始まる。
これらの位置の外観と空間エンコーディングを変圧器への入力として使用し、注意メカニズムを利用して関節の正しい構成を整理します。
論文 参考訳(メタデータ) (2021-04-29T20:19:20Z) - Generalized Grasping for Mechanical Grippers for Unknown Objects with
Partial Point Cloud Representations [4.196869541965447]
メカニカルグリップパーによって実行される複数のグリップタイプのグリップポーズ解を,ほぼリアルタイムで検出するために点雲を用いる。
シミュレーションおよび実験により,1)3種類のグリップタイプのグリップポーズをほぼリアルタイムで検出し,2)部分点と完全点の両方のクラウドスキャンにおけるボクセル分解能の変化に対して,グリップポーズの解が一致していること,3)メカニカルグリップパーを用いて,予測したグリップが実行されることを示す。
論文 参考訳(メタデータ) (2020-06-23T00:34:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。