論文の概要: RobotFingerPrint: Unified Gripper Coordinate Space for Multi-Gripper Grasp Synthesis and Transfer
- arxiv url: http://arxiv.org/abs/2409.14519v2
- Date: Mon, 03 Mar 2025 00:51:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-04 17:04:19.423426
- Title: RobotFingerPrint: Unified Gripper Coordinate Space for Multi-Gripper Grasp Synthesis and Transfer
- Title(参考訳): RobotFingerPrint:マルチグルーパーグラフ合成と転送のための統一グルーパー座標空間
- Authors: Ninad Khargonkar, Luis Felipe Casas, Balakrishnan Prabhakaran, Yu Xiang,
- Abstract要約: 本稿では,統一グリッパー座標空間(Unified Gripper Coordinate Space)という新たなグリップ表現を導入する。
我々の表現は球面座標を利用して、異なるロボットグリップにまたがる共有座標空間を作成する。
- 参考スコア(独自算出の注目度): 3.84876707968786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel grasp representation named the Unified Gripper Coordinate Space (UGCS) for grasp synthesis and grasp transfer. Our representation leverages spherical coordinates to create a shared coordinate space across different robot grippers, enabling it to synthesize and transfer grasps for both novel objects and previously unseen grippers. The strength of this representation lies in the ability to map palm and fingers of a gripper and the unified coordinate space. Grasp synthesis is formulated as predicting the unified spherical coordinates on object surface points via a conditional variational autoencoder. The predicted unified gripper coordinates establish exact correspondences between the gripper and object points, which is used to optimize grasp pose and joint values. Grasp transfer is facilitated through the point-to-point correspondence between any two (potentially unseen) grippers and solved via a similar optimization. Extensive simulation and real-world experiments showcase the efficacy of the unified grasp representation for grasp synthesis in generating stable and diverse grasps. Similarly, we showcase real-world grasp transfer from human demonstrations across different objects.
- Abstract(参考訳): 本稿では,統一グリッパー座標空間 (Unified Gripper Coordinate Space, UGCS) と呼ばれる新しいグリップ表現を導入する。
我々の表現は球面座標を利用して、異なるロボットグリップにまたがる共有座標空間を作成し、新しい物体とそれまで目に見えないグリップの両方のグリップを合成し、転送することができる。
この表現の強さは、グリップの手のひらと指と統一された座標空間をマッピングする能力にある。
グラフ合成は、条件付き変分オートエンコーダを介して、物体表面上の統一球面座標を予測するものとして定式化される。
予測された統合グリップパー座標は、グリップポーズとジョイント値の最適化に使用される、グリップパーとオブジェクトポイントの正確な対応を確立する。
グラフ転送は、任意の2つの(潜在的に見えない)グリップ間のポイント・ツー・ポイント対応によって促進され、同様の最適化によって解決される。
広汎なシミュレーションと実世界の実験は、安定かつ多様なグリップを生成する際に、グリップ合成のための統一グリップ表現の有効性を示す。
同様に、異なる物体にまたがる人間の実演から現実世界のつかみ移動を示す。
関連論文リスト
- SIGHT: Single-Image Conditioned Generation of Hand Trajectories for Hand-Object Interaction [86.54738165527502]
本研究では,物体の1つの画像に対して,現実的かつ多様な3次元ハンドトラジェクトリを生成する新しいタスクを提案する。
手動物体の相互作用の軌跡は、ロボット工学、具体化されたAI、拡張現実、および関連分野の応用に大きな恩恵をもたらす。
論文 参考訳(メタデータ) (2025-03-28T20:53:20Z) - PoseLess: Depth-Free Vision-to-Joint Control via Direct Image Mapping with VLM [0.0]
PoseLessはロボットハンドコントロールのための新しいフレームワークで、投影された表現を用いて2D画像を関節角に直接マッピングすることで、明示的なポーズ推定を不要にする。
提案手法では,ランダムな関節構成によって生成された合成トレーニングデータを活用し,実世界のシナリオへのゼロショット一般化とロボットから人間の手へのクロスモルフォロジー移行を実現する。
論文 参考訳(メタデータ) (2025-03-10T09:34:05Z) - GEARS: Local Geometry-aware Hand-object Interaction Synthesis [38.75942505771009]
本研究では, 相互作用領域近傍の局所物体形状を推定するための, 結合中心型センサを提案する。
学習の複雑さを軽減するための重要なステップとして、グローバルフレームからテンプレートハンドフレームにポイントを変換し、共有モジュールを使用して各関節のセンサ特徴を処理する。
これに続いて、異なる次元の関節間の相関を捉えることを目的とした知覚時間変換ネットワークが提供される。
論文 参考訳(メタデータ) (2024-04-02T09:18:52Z) - Gaze-guided Hand-Object Interaction Synthesis: Dataset and Method [61.19028558470065]
本稿では,視線,手,物間相互作用の3次元モデリングを同時に行う最初のデータセットであるGazeHOIを紹介する。
これらの課題に対処するため,GHO-Diffusion という手動物体間相互作用拡散モデルを提案する。
また, GHO拡散のサンプリング段階におけるHOI-Manifold Guidanceを導入し, 生成した動きのきめ細かい制御を可能にする。
論文 参考訳(メタデータ) (2024-03-24T14:24:13Z) - SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z) - Towards a Unified Transformer-based Framework for Scene Graph Generation
and Human-object Interaction Detection [116.21529970404653]
本稿では,Transformerアーキテクチャに基づく一段階統一モデルであるSG2HOI+を紹介する。
本手法では,SGGとHOI検出のタスクをシームレスに統一する2つの対話型階層変換器を用いる。
提案手法は最先端のHOI法と比較して競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-03T07:25:57Z) - Fast and Expressive Gesture Recognition using a Combination-Homomorphic
Electromyogram Encoder [21.25126610043744]
筋電図を用いたジェスチャー認識の課題について検討する。
方向成分と変調器成分を組み合わせたジェスチャーを定義する。
新しい被験者は単一のコンポーネントジェスチャしか示さない。
実際の単一のジェスチャーの特徴ベクトルを組み合わせて合成学習データを生成することで、見知らぬ組み合わせのジェスチャーに外挿する。
論文 参考訳(メタデータ) (2023-10-30T20:03:34Z) - Variational Barycentric Coordinates [18.752506994498845]
一般化された偏心座標の最適化のための変分手法を提案する。
我々は,ポリトープ内部の任意の座標を,ニューラルネットワークを用いてバリ中心座標にマッピングする連続関数を直接パラメータ化する。
論文 参考訳(メタデータ) (2023-10-05T19:45:06Z) - NDC-Scene: Boost Monocular 3D Semantic Scene Completion in Normalized
Device Coordinates Space [77.6067460464962]
SSC(Monocular 3D Semantic Scene Completion)は、単一の画像から複雑なセマンティックスや幾何学的形状を予測し、3D入力を必要としないため、近年大きな注目を集めている。
我々は,3次元空間に投影された2次元特徴の特徴的曖昧さ,3次元畳み込みのPose Ambiguity,深さの異なる3次元畳み込みにおける不均衡など,現在の最先端手法におけるいくつかの重要な問題を明らかにする。
シーン補完ネットワーク(NDC-Scene)を考案し,2を直接拡張する。
論文 参考訳(メタデータ) (2023-09-26T02:09:52Z) - Coordinate Quantized Neural Implicit Representations for Multi-view
Reconstruction [28.910183274743872]
量子化座標を用いたニューラル暗黙表現を導入し、最適化時のフィールドの不確かさとあいまいさを低減する。
我々は離散座標とその位置符号化を用いてボリュームレンダリングを通して暗黙の関数を学習する。
広く使用されているベンチマークによる評価は、最先端技術よりも優位性を示している。
論文 参考訳(メタデータ) (2023-08-21T20:27:33Z) - Auxiliary Tasks Benefit 3D Skeleton-based Human Motion Prediction [106.06256351200068]
本稿では,補助的なタスクを伴うモデル学習フレームワークを提案する。
補助作業では、部分体関節の座標はマスキングまたはノイズ付加によって損なわれる。
本稿では,不完全かつ破損した動作データを処理できる新しい補助適応変換器を提案する。
論文 参考訳(メタデータ) (2023-08-17T12:26:11Z) - AdaptivePose++: A Powerful Single-Stage Network for Multi-Person Pose
Regression [66.39539141222524]
そこで本研究では,ヒトの部位を適応点として表現し,微細な身体表現法を提案する。
提案するボディ表現では,AdaptivePoseと呼ばれる,コンパクトなシングルステージ多人数ポーズ回帰ネットワークを提供する。
本稿では,AdaptivePoseの有効性を検証するために,2D/3D多人数ポーズ推定タスクにAdaptivePoseを用いる。
論文 参考訳(メタデータ) (2022-10-08T12:54:20Z) - PolarMOT: How Far Can Geometric Relations Take Us in 3D Multi-Object
Tracking? [62.997667081978825]
グラフのノードとして3D検出を符号化し、グラフエッジ上の局所極座標を用いてオブジェクト間の空間的および時間的対関係を符号化する。
これにより、グラフニューラルネットワークは、時間的および空間的相互作用を効果的に符号化することができる。
我々はnuScenesデータセット上に新しい最先端のデータセットを構築し、さらに重要なことに、私たちの手法であるPolarMOTが、異なる場所にわたって驚くほどよく一般化されていることを示す。
論文 参考訳(メタデータ) (2022-08-03T10:06:56Z) - A Dual-Masked Auto-Encoder for Robust Motion Capture with
Spatial-Temporal Skeletal Token Completion [13.88656793940129]
本稿では, 3次元関節を再構成し, 個々の関節を識別するための適応的, アイデンティティを意識した三角測量モジュールを提案する。
次に,D-MAE(Dual-Masked Auto-Encoder)を提案する。
重大なデータ損失シナリオを扱う上で提案するモデルの能力を実証するために,高精度で挑戦的なモーションキャプチャデータセットに貢献する。
論文 参考訳(メタデータ) (2022-07-15T10:00:43Z) - NeuralGrasps: Learning Implicit Representations for Grasps of Multiple
Robotic Hands [15.520158510964757]
複数のロボットハンドから物体をつかむ神経暗黙表現を導入する。
複数のロボットハンドにまたがる異なるグリップは、共有潜在空間に符号化される。
グリップトランスファーは、ロボット間で把握スキルを共有し、ロボットが人間から把握スキルを学習できるようにする可能性がある。
論文 参考訳(メタデータ) (2022-07-06T20:33:32Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Learning High-DOF Reaching-and-Grasping via Dynamic Representation of
Gripper-Object Interaction [21.03434784990944]
本稿では,グリップと対象物との空間的相互作用を特徴付ける把握状態の効果的な表現を提案する。
IBSは,対象物に対する空間的関係で各指のきめ細かい制御を十分に通知するので,状態表現として驚くほど効果的である。
実験により, 円滑な把持動作を有する複雑な形状に対して, 高品質なデキスタラスグリップを生成することが示された。
論文 参考訳(メタデータ) (2022-04-03T07:03:54Z) - Speech2AffectiveGestures: Synthesizing Co-Speech Gestures with Generative Adversarial Affective Expression Learning [52.73083137245969]
そこで本稿では, 感情表現を適切に表現し, 3次元ポーズを合成する生成的対人ネットワークを提案する。
本ネットワークは,入力音声とシードポーズから符号化された特徴の組込み空間からジェスチャを合成するジェネレータと,合成されたポーズシーケンスと実3Dポーズシーケンスを識別する識別器とから構成される。
論文 参考訳(メタデータ) (2021-07-31T15:13:39Z) - HandsFormer: Keypoint Transformer for Monocular 3D Pose Estimation
ofHands and Object in Interaction [33.661745138578596]
単色画像からの密接な相互作用で両手の3次元ポーズを推定する頑健で正確な手法を提案する。
本手法は, 両手関節の電位2d位置をヒートマップの極値として抽出することから始まる。
これらの位置の外観と空間エンコーディングを変圧器への入力として使用し、注意メカニズムを利用して関節の正しい構成を整理します。
論文 参考訳(メタデータ) (2021-04-29T20:19:20Z) - Generalized Grasping for Mechanical Grippers for Unknown Objects with
Partial Point Cloud Representations [4.196869541965447]
メカニカルグリップパーによって実行される複数のグリップタイプのグリップポーズ解を,ほぼリアルタイムで検出するために点雲を用いる。
シミュレーションおよび実験により,1)3種類のグリップタイプのグリップポーズをほぼリアルタイムで検出し,2)部分点と完全点の両方のクラウドスキャンにおけるボクセル分解能の変化に対して,グリップポーズの解が一致していること,3)メカニカルグリップパーを用いて,予測したグリップが実行されることを示す。
論文 参考訳(メタデータ) (2020-06-23T00:34:05Z) - Orientation Attentive Robotic Grasp Synthesis with Augmented Grasp Map
Representation [62.79160608266713]
物体の形態学的特徴は、ロボットの把握の視覚的学習を阻害する、幅広い可視的把握方向を提供する可能性がある。
既存のグリップ生成アプローチを呪い、グリップポイント毎に大きく異なる向きのアノテーションを集約することにより、不連続グリップマップを構築する。
そこで本研究では,角度空間を複数のビンに分割することで,方向を局所的に歪曲する,画素ワイズ合成に適した拡張型グリップマップ表現を提案する。
論文 参考訳(メタデータ) (2020-06-09T08:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。