論文の概要: RobotFingerPrint: Unified Gripper Coordinate Space for Multi-Gripper Grasp Synthesis
- arxiv url: http://arxiv.org/abs/2409.14519v1
- Date: Sun, 22 Sep 2024 16:25:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 22:19:40.926565
- Title: RobotFingerPrint: Unified Gripper Coordinate Space for Multi-Gripper Grasp Synthesis
- Title(参考訳): RobotFingerPrint:マルチグルーパーグラフ合成のための統一グルーパー座標空間
- Authors: Ninad Khargonkar, Luis Felipe Casas, Balakrishnan Prabhakaran, Yu Xiang,
- Abstract要約: 本稿では,複数のグリップの合成を把握するための統一グリップ座標空間として,新しい表現を導入する。
空間は3次元の球面の2次元表面であり、緯度と緯度を座標とし、全てのロボットグリップパーに共有される。
- 参考スコア(独自算出の注目度): 3.84876707968786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel representation named as the unified gripper coordinate space for grasp synthesis of multiple grippers. The space is a 2D surface of a sphere in 3D using longitude and latitude as its coordinates, and it is shared for all robotic grippers. We propose a new algorithm to map the palm surface of a gripper into the unified gripper coordinate space, and design a conditional variational autoencoder to predict the unified gripper coordinates given an input object. The predicted unified gripper coordinates establish correspondences between the gripper and the object, which can be used in an optimization problem to solve the grasp pose and the finger joints for grasp synthesis. We demonstrate that using the unified gripper coordinate space improves the success rate and diversity in the grasp synthesis of multiple grippers.
- Abstract(参考訳): 本稿では,複数のグリップの合成を把握するための統一グリップ座標空間として,新しい表現を導入する。
空間は3次元の球面の2次元表面であり、緯度と緯度を座標とし、全てのロボットグリップパーに共有される。
本稿では,グッパーのヤシ面を統一グッパー座標空間にマッピングする新しいアルゴリズムを提案し,入力対象のグッパー座標を予測する条件付き変分オートエンコーダを設計する。
予測された統一グリップパ座標は、グリップとオブジェクトとの対応性を確立し、最適化問題において、グリップポーズとフィンガージョイントを解き、グリップ合成を行う。
統一グリップパ座標空間を用いることで、複数のグリップパのグリップ合成における成功率と多様性が向上することを示した。
関連論文リスト
- SIGHT: Single-Image Conditioned Generation of Hand Trajectories for Hand-Object Interaction [86.54738165527502]
本研究では,物体の1つの画像に対して,現実的かつ多様な3次元ハンドトラジェクトリを生成する新しいタスクを提案する。
手動物体の相互作用の軌跡は、ロボット工学、具体化されたAI、拡張現実、および関連分野の応用に大きな恩恵をもたらす。
論文 参考訳(メタデータ) (2025-03-28T20:53:20Z) - PoseLess: Depth-Free Vision-to-Joint Control via Direct Image Mapping with VLM [0.0]
PoseLessはロボットハンドコントロールのための新しいフレームワークで、投影された表現を用いて2D画像を関節角に直接マッピングすることで、明示的なポーズ推定を不要にする。
提案手法では,ランダムな関節構成によって生成された合成トレーニングデータを活用し,実世界のシナリオへのゼロショット一般化とロボットから人間の手へのクロスモルフォロジー移行を実現する。
論文 参考訳(メタデータ) (2025-03-10T09:34:05Z) - GEARS: Local Geometry-aware Hand-object Interaction Synthesis [38.75942505771009]
本研究では, 相互作用領域近傍の局所物体形状を推定するための, 結合中心型センサを提案する。
学習の複雑さを軽減するための重要なステップとして、グローバルフレームからテンプレートハンドフレームにポイントを変換し、共有モジュールを使用して各関節のセンサ特徴を処理する。
これに続いて、異なる次元の関節間の相関を捉えることを目的とした知覚時間変換ネットワークが提供される。
論文 参考訳(メタデータ) (2024-04-02T09:18:52Z) - Gaze-guided Hand-Object Interaction Synthesis: Dataset and Method [61.19028558470065]
本稿では,視線,手,物間相互作用の3次元モデリングを同時に行う最初のデータセットであるGazeHOIを紹介する。
これらの課題に対処するため,GHO-Diffusion という手動物体間相互作用拡散モデルを提案する。
また, GHO拡散のサンプリング段階におけるHOI-Manifold Guidanceを導入し, 生成した動きのきめ細かい制御を可能にする。
論文 参考訳(メタデータ) (2024-03-24T14:24:13Z) - SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z) - Towards a Unified Transformer-based Framework for Scene Graph Generation
and Human-object Interaction Detection [116.21529970404653]
本稿では,Transformerアーキテクチャに基づく一段階統一モデルであるSG2HOI+を紹介する。
本手法では,SGGとHOI検出のタスクをシームレスに統一する2つの対話型階層変換器を用いる。
提案手法は最先端のHOI法と比較して競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-03T07:25:57Z) - Fast and Expressive Gesture Recognition using a Combination-Homomorphic
Electromyogram Encoder [21.25126610043744]
筋電図を用いたジェスチャー認識の課題について検討する。
方向成分と変調器成分を組み合わせたジェスチャーを定義する。
新しい被験者は単一のコンポーネントジェスチャしか示さない。
実際の単一のジェスチャーの特徴ベクトルを組み合わせて合成学習データを生成することで、見知らぬ組み合わせのジェスチャーに外挿する。
論文 参考訳(メタデータ) (2023-10-30T20:03:34Z) - Variational Barycentric Coordinates [18.752506994498845]
一般化された偏心座標の最適化のための変分手法を提案する。
我々は,ポリトープ内部の任意の座標を,ニューラルネットワークを用いてバリ中心座標にマッピングする連続関数を直接パラメータ化する。
論文 参考訳(メタデータ) (2023-10-05T19:45:06Z) - NDC-Scene: Boost Monocular 3D Semantic Scene Completion in Normalized
Device Coordinates Space [77.6067460464962]
SSC(Monocular 3D Semantic Scene Completion)は、単一の画像から複雑なセマンティックスや幾何学的形状を予測し、3D入力を必要としないため、近年大きな注目を集めている。
我々は,3次元空間に投影された2次元特徴の特徴的曖昧さ,3次元畳み込みのPose Ambiguity,深さの異なる3次元畳み込みにおける不均衡など,現在の最先端手法におけるいくつかの重要な問題を明らかにする。
シーン補完ネットワーク(NDC-Scene)を考案し,2を直接拡張する。
論文 参考訳(メタデータ) (2023-09-26T02:09:52Z) - Coordinate Quantized Neural Implicit Representations for Multi-view
Reconstruction [28.910183274743872]
量子化座標を用いたニューラル暗黙表現を導入し、最適化時のフィールドの不確かさとあいまいさを低減する。
我々は離散座標とその位置符号化を用いてボリュームレンダリングを通して暗黙の関数を学習する。
広く使用されているベンチマークによる評価は、最先端技術よりも優位性を示している。
論文 参考訳(メタデータ) (2023-08-21T20:27:33Z) - Auxiliary Tasks Benefit 3D Skeleton-based Human Motion Prediction [106.06256351200068]
本稿では,補助的なタスクを伴うモデル学習フレームワークを提案する。
補助作業では、部分体関節の座標はマスキングまたはノイズ付加によって損なわれる。
本稿では,不完全かつ破損した動作データを処理できる新しい補助適応変換器を提案する。
論文 参考訳(メタデータ) (2023-08-17T12:26:11Z) - AdaptivePose++: A Powerful Single-Stage Network for Multi-Person Pose
Regression [66.39539141222524]
そこで本研究では,ヒトの部位を適応点として表現し,微細な身体表現法を提案する。
提案するボディ表現では,AdaptivePoseと呼ばれる,コンパクトなシングルステージ多人数ポーズ回帰ネットワークを提供する。
本稿では,AdaptivePoseの有効性を検証するために,2D/3D多人数ポーズ推定タスクにAdaptivePoseを用いる。
論文 参考訳(メタデータ) (2022-10-08T12:54:20Z) - PolarMOT: How Far Can Geometric Relations Take Us in 3D Multi-Object
Tracking? [62.997667081978825]
グラフのノードとして3D検出を符号化し、グラフエッジ上の局所極座標を用いてオブジェクト間の空間的および時間的対関係を符号化する。
これにより、グラフニューラルネットワークは、時間的および空間的相互作用を効果的に符号化することができる。
我々はnuScenesデータセット上に新しい最先端のデータセットを構築し、さらに重要なことに、私たちの手法であるPolarMOTが、異なる場所にわたって驚くほどよく一般化されていることを示す。
論文 参考訳(メタデータ) (2022-08-03T10:06:56Z) - A Dual-Masked Auto-Encoder for Robust Motion Capture with
Spatial-Temporal Skeletal Token Completion [13.88656793940129]
本稿では, 3次元関節を再構成し, 個々の関節を識別するための適応的, アイデンティティを意識した三角測量モジュールを提案する。
次に,D-MAE(Dual-Masked Auto-Encoder)を提案する。
重大なデータ損失シナリオを扱う上で提案するモデルの能力を実証するために,高精度で挑戦的なモーションキャプチャデータセットに貢献する。
論文 参考訳(メタデータ) (2022-07-15T10:00:43Z) - NeuralGrasps: Learning Implicit Representations for Grasps of Multiple
Robotic Hands [15.520158510964757]
複数のロボットハンドから物体をつかむ神経暗黙表現を導入する。
複数のロボットハンドにまたがる異なるグリップは、共有潜在空間に符号化される。
グリップトランスファーは、ロボット間で把握スキルを共有し、ロボットが人間から把握スキルを学習できるようにする可能性がある。
論文 参考訳(メタデータ) (2022-07-06T20:33:32Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Learning High-DOF Reaching-and-Grasping via Dynamic Representation of
Gripper-Object Interaction [21.03434784990944]
本稿では,グリップと対象物との空間的相互作用を特徴付ける把握状態の効果的な表現を提案する。
IBSは,対象物に対する空間的関係で各指のきめ細かい制御を十分に通知するので,状態表現として驚くほど効果的である。
実験により, 円滑な把持動作を有する複雑な形状に対して, 高品質なデキスタラスグリップを生成することが示された。
論文 参考訳(メタデータ) (2022-04-03T07:03:54Z) - Speech2AffectiveGestures: Synthesizing Co-Speech Gestures with Generative Adversarial Affective Expression Learning [52.73083137245969]
そこで本稿では, 感情表現を適切に表現し, 3次元ポーズを合成する生成的対人ネットワークを提案する。
本ネットワークは,入力音声とシードポーズから符号化された特徴の組込み空間からジェスチャを合成するジェネレータと,合成されたポーズシーケンスと実3Dポーズシーケンスを識別する識別器とから構成される。
論文 参考訳(メタデータ) (2021-07-31T15:13:39Z) - HandsFormer: Keypoint Transformer for Monocular 3D Pose Estimation
ofHands and Object in Interaction [33.661745138578596]
単色画像からの密接な相互作用で両手の3次元ポーズを推定する頑健で正確な手法を提案する。
本手法は, 両手関節の電位2d位置をヒートマップの極値として抽出することから始まる。
これらの位置の外観と空間エンコーディングを変圧器への入力として使用し、注意メカニズムを利用して関節の正しい構成を整理します。
論文 参考訳(メタデータ) (2021-04-29T20:19:20Z) - Generalized Grasping for Mechanical Grippers for Unknown Objects with
Partial Point Cloud Representations [4.196869541965447]
メカニカルグリップパーによって実行される複数のグリップタイプのグリップポーズ解を,ほぼリアルタイムで検出するために点雲を用いる。
シミュレーションおよび実験により,1)3種類のグリップタイプのグリップポーズをほぼリアルタイムで検出し,2)部分点と完全点の両方のクラウドスキャンにおけるボクセル分解能の変化に対して,グリップポーズの解が一致していること,3)メカニカルグリップパーを用いて,予測したグリップが実行されることを示す。
論文 参考訳(メタデータ) (2020-06-23T00:34:05Z) - Orientation Attentive Robotic Grasp Synthesis with Augmented Grasp Map
Representation [62.79160608266713]
物体の形態学的特徴は、ロボットの把握の視覚的学習を阻害する、幅広い可視的把握方向を提供する可能性がある。
既存のグリップ生成アプローチを呪い、グリップポイント毎に大きく異なる向きのアノテーションを集約することにより、不連続グリップマップを構築する。
そこで本研究では,角度空間を複数のビンに分割することで,方向を局所的に歪曲する,画素ワイズ合成に適した拡張型グリップマップ表現を提案する。
論文 参考訳(メタデータ) (2020-06-09T08:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。