論文の概要: RobotFingerPrint: Unified Gripper Coordinate Space for Multi-Gripper Grasp Synthesis
- arxiv url: http://arxiv.org/abs/2409.14519v1
- Date: Sun, 22 Sep 2024 16:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 22:19:40.926565
- Title: RobotFingerPrint: Unified Gripper Coordinate Space for Multi-Gripper Grasp Synthesis
- Title(参考訳): RobotFingerPrint:マルチグルーパーグラフ合成のための統一グルーパー座標空間
- Authors: Ninad Khargonkar, Luis Felipe Casas, Balakrishnan Prabhakaran, Yu Xiang,
- Abstract要約: 本稿では,複数のグリップの合成を把握するための統一グリップ座標空間として,新しい表現を導入する。
空間は3次元の球面の2次元表面であり、緯度と緯度を座標とし、全てのロボットグリップパーに共有される。
- 参考スコア(独自算出の注目度): 3.84876707968786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel representation named as the unified gripper coordinate space for grasp synthesis of multiple grippers. The space is a 2D surface of a sphere in 3D using longitude and latitude as its coordinates, and it is shared for all robotic grippers. We propose a new algorithm to map the palm surface of a gripper into the unified gripper coordinate space, and design a conditional variational autoencoder to predict the unified gripper coordinates given an input object. The predicted unified gripper coordinates establish correspondences between the gripper and the object, which can be used in an optimization problem to solve the grasp pose and the finger joints for grasp synthesis. We demonstrate that using the unified gripper coordinate space improves the success rate and diversity in the grasp synthesis of multiple grippers.
- Abstract(参考訳): 本稿では,複数のグリップの合成を把握するための統一グリップ座標空間として,新しい表現を導入する。
空間は3次元の球面の2次元表面であり、緯度と緯度を座標とし、全てのロボットグリップパーに共有される。
本稿では,グッパーのヤシ面を統一グッパー座標空間にマッピングする新しいアルゴリズムを提案し,入力対象のグッパー座標を予測する条件付き変分オートエンコーダを設計する。
予測された統一グリップパ座標は、グリップとオブジェクトとの対応性を確立し、最適化問題において、グリップポーズとフィンガージョイントを解き、グリップ合成を行う。
統一グリップパ座標空間を用いることで、複数のグリップパのグリップ合成における成功率と多様性が向上することを示した。
関連論文リスト
- SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z) - NDC-Scene: Boost Monocular 3D Semantic Scene Completion in Normalized
Device Coordinates Space [77.6067460464962]
SSC(Monocular 3D Semantic Scene Completion)は、単一の画像から複雑なセマンティックスや幾何学的形状を予測し、3D入力を必要としないため、近年大きな注目を集めている。
我々は,3次元空間に投影された2次元特徴の特徴的曖昧さ,3次元畳み込みのPose Ambiguity,深さの異なる3次元畳み込みにおける不均衡など,現在の最先端手法におけるいくつかの重要な問題を明らかにする。
シーン補完ネットワーク(NDC-Scene)を考案し,2を直接拡張する。
論文 参考訳(メタデータ) (2023-09-26T02:09:52Z) - Coordinate Quantized Neural Implicit Representations for Multi-view
Reconstruction [28.910183274743872]
量子化座標を用いたニューラル暗黙表現を導入し、最適化時のフィールドの不確かさとあいまいさを低減する。
我々は離散座標とその位置符号化を用いてボリュームレンダリングを通して暗黙の関数を学習する。
広く使用されているベンチマークによる評価は、最先端技術よりも優位性を示している。
論文 参考訳(メタデータ) (2023-08-21T20:27:33Z) - Auxiliary Tasks Benefit 3D Skeleton-based Human Motion Prediction [106.06256351200068]
本稿では,補助的なタスクを伴うモデル学習フレームワークを提案する。
補助作業では、部分体関節の座標はマスキングまたはノイズ付加によって損なわれる。
本稿では,不完全かつ破損した動作データを処理できる新しい補助適応変換器を提案する。
論文 参考訳(メタデータ) (2023-08-17T12:26:11Z) - AdaptivePose++: A Powerful Single-Stage Network for Multi-Person Pose
Regression [66.39539141222524]
そこで本研究では,ヒトの部位を適応点として表現し,微細な身体表現法を提案する。
提案するボディ表現では,AdaptivePoseと呼ばれる,コンパクトなシングルステージ多人数ポーズ回帰ネットワークを提供する。
本稿では,AdaptivePoseの有効性を検証するために,2D/3D多人数ポーズ推定タスクにAdaptivePoseを用いる。
論文 参考訳(メタデータ) (2022-10-08T12:54:20Z) - PolarMOT: How Far Can Geometric Relations Take Us in 3D Multi-Object
Tracking? [62.997667081978825]
グラフのノードとして3D検出を符号化し、グラフエッジ上の局所極座標を用いてオブジェクト間の空間的および時間的対関係を符号化する。
これにより、グラフニューラルネットワークは、時間的および空間的相互作用を効果的に符号化することができる。
我々はnuScenesデータセット上に新しい最先端のデータセットを構築し、さらに重要なことに、私たちの手法であるPolarMOTが、異なる場所にわたって驚くほどよく一般化されていることを示す。
論文 参考訳(メタデータ) (2022-08-03T10:06:56Z) - A Dual-Masked Auto-Encoder for Robust Motion Capture with
Spatial-Temporal Skeletal Token Completion [13.88656793940129]
本稿では, 3次元関節を再構成し, 個々の関節を識別するための適応的, アイデンティティを意識した三角測量モジュールを提案する。
次に,D-MAE(Dual-Masked Auto-Encoder)を提案する。
重大なデータ損失シナリオを扱う上で提案するモデルの能力を実証するために,高精度で挑戦的なモーションキャプチャデータセットに貢献する。
論文 参考訳(メタデータ) (2022-07-15T10:00:43Z) - NeuralGrasps: Learning Implicit Representations for Grasps of Multiple
Robotic Hands [15.520158510964757]
複数のロボットハンドから物体をつかむ神経暗黙表現を導入する。
複数のロボットハンドにまたがる異なるグリップは、共有潜在空間に符号化される。
グリップトランスファーは、ロボット間で把握スキルを共有し、ロボットが人間から把握スキルを学習できるようにする可能性がある。
論文 参考訳(メタデータ) (2022-07-06T20:33:32Z) - Speech2AffectiveGestures: Synthesizing Co-Speech Gestures with Generative Adversarial Affective Expression Learning [52.73083137245969]
そこで本稿では, 感情表現を適切に表現し, 3次元ポーズを合成する生成的対人ネットワークを提案する。
本ネットワークは,入力音声とシードポーズから符号化された特徴の組込み空間からジェスチャを合成するジェネレータと,合成されたポーズシーケンスと実3Dポーズシーケンスを識別する識別器とから構成される。
論文 参考訳(メタデータ) (2021-07-31T15:13:39Z) - HandsFormer: Keypoint Transformer for Monocular 3D Pose Estimation
ofHands and Object in Interaction [33.661745138578596]
単色画像からの密接な相互作用で両手の3次元ポーズを推定する頑健で正確な手法を提案する。
本手法は, 両手関節の電位2d位置をヒートマップの極値として抽出することから始まる。
これらの位置の外観と空間エンコーディングを変圧器への入力として使用し、注意メカニズムを利用して関節の正しい構成を整理します。
論文 参考訳(メタデータ) (2021-04-29T20:19:20Z) - Generalized Grasping for Mechanical Grippers for Unknown Objects with
Partial Point Cloud Representations [4.196869541965447]
メカニカルグリップパーによって実行される複数のグリップタイプのグリップポーズ解を,ほぼリアルタイムで検出するために点雲を用いる。
シミュレーションおよび実験により,1)3種類のグリップタイプのグリップポーズをほぼリアルタイムで検出し,2)部分点と完全点の両方のクラウドスキャンにおけるボクセル分解能の変化に対して,グリップポーズの解が一致していること,3)メカニカルグリップパーを用いて,予測したグリップが実行されることを示す。
論文 参考訳(メタデータ) (2020-06-23T00:34:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。