論文の概要: PoseIt: A Visual-Tactile Dataset of Holding Poses for Grasp Stability
Analysis
- arxiv url: http://arxiv.org/abs/2209.05022v1
- Date: Mon, 12 Sep 2022 04:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:42:45.188864
- Title: PoseIt: A Visual-Tactile Dataset of Holding Poses for Grasp Stability
Analysis
- Title(参考訳): PoseIt: Grasp安定解析のためのホールディングポースの視覚触覚データセット
- Authors: Shubham Kanitkar, Helen Jiang, Wenzhen Yuan
- Abstract要約: 対象物を把握する全サイクルから収集した視覚的・触覚的データを含む,新しいデータセットPoseItを提案する。
PoseItのデータを用いて、特定の保持されたポーズにおいて、把握されたオブジェクトが安定しているかどうかを予測するタスクを定式化し、対処することができる。
実験の結果,PoseItでトレーニングしたマルチモーダルモデルは,視覚や触覚のみを用いた場合よりも精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 7.644487678804541
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When humans grasp objects in the real world, we often move our arms to hold
the object in a different pose where we can use it. In contrast, typical lab
settings only study the stability of the grasp immediately after lifting,
without any subsequent re-positioning of the arm. However, the grasp stability
could vary widely based on the object's holding pose, as the gravitational
torque and gripper contact forces could change completely. To facilitate the
study of how holding poses affect grasp stability, we present PoseIt, a novel
multi-modal dataset that contains visual and tactile data collected from a full
cycle of grasping an object, re-positioning the arm to one of the sampled
poses, and shaking the object. Using data from PoseIt, we can formulate and
tackle the task of predicting whether a grasped object is stable in a
particular held pose. We train an LSTM classifier that achieves 85% accuracy on
the proposed task. Our experimental results show that multi-modal models
trained on PoseIt achieve higher accuracy than using solely vision or tactile
data and that our classifiers can also generalize to unseen objects and poses.
- Abstract(参考訳): 人間が現実世界の物体をつかむとき、私たちはしばしば腕を動かして物体を異なる姿勢で保持し、それを使うことができます。
対照的に、典型的な実験室の設定では、持ち上げ直後のグリップの安定性についてのみ研究する。
しかし、把持安定性は物体の保持姿勢によって大きく変化し、重力トルクとグリッパー接触力が完全に変化する可能性がある。
保持ポーズが把持安定性にどのように影響するかの研究を容易にするために,対象物を把持する全周期から収集した視覚および触覚データを含む,新たな多モードデータセットであるpositを提案する。
poseitのデータを使って、特定のポーズで把握された物体が安定しているかどうかを予測するタスクを定式化し、対処することができる。
提案課題に対して85%の精度でLSTM分類器を訓練する。
実験の結果,PoseItで訓練したマルチモーダルモデルは,視覚や触覚のみを用いた場合よりも精度が高く,分類器は見えない物体やポーズにも一般化できることがわかった。
関連論文リスト
- AugInsert: Learning Robust Visual-Force Policies via Data Augmentation for Object Assembly Tasks [7.631503105866245]
本稿では,高精度オブジェクト集合タスクの文脈における堅牢な視覚力ポリシーの学習に主眼を置いている。
我々は,オンラインデータ拡張を通じて人間による実演を拡大することにより,限られた専門家データに基づいて多感覚入力によるコンタクトリッチな操作ポリシーを学習することを目指している。
論文 参考訳(メタデータ) (2024-10-19T04:19:52Z) - VINECS: Video-based Neural Character Skinning [82.39776643541383]
ポーズ依存のスキン重みを持つ完全リップ文字を作成するための完全自動アプローチを提案する。
提案手法は高密度4Dスキャンに頼らず,最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T08:35:53Z) - PoseTrans: A Simple Yet Effective Pose Transformation Augmentation for
Human Pose Estimation [40.50255017107963]
我々は多彩なポーズを持つ新しいトレーニングサンプルを作成するために、Pose Transformation (PoseTrans)を提案する。
また,ポーズの規則性を測定するためにPose Clustering Module (PCM)を提案する。
提案手法は効率的で実装が容易であり,既存のポーズ推定モデルのトレーニングパイプラインに容易に組み込むことができる。
論文 参考訳(メタデータ) (2022-08-16T14:03:01Z) - SporeAgent: Reinforced Scene-level Plausibility for Object Pose
Refinement [28.244027792644097]
深度とRGBに基づくポーズ改善アプローチは、結果のポーズ推定の精度を高めるが、視覚的アライメントを考慮するとあいまいさの影響を受けやすい。
可視性を考慮するとあいまいさが減少し、その結果、乱雑な環境でより正確にポーズを予測できることが示される。
LINEMOD および YCB-VIDEO データセットを用いた実験により, 深度に基づく精錬手法の最先端性能が実証された。
論文 参考訳(メタデータ) (2022-01-01T20:26:19Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - Physically Plausible Pose Refinement using Fully Differentiable Forces [68.8204255655161]
対象物が経験する力を学習することでポーズ推定を精緻化するエンドツーエンドの差別化モデルを提案する。
学習されたネット力と有限位置差に基づくネット力の推定とをマッチングすることにより、このモデルは物体の動きを正確に記述する力を見つけることができる。
rgbや深度画像のデータを使わずに、このモデルがポーズの修正に成功し、接点マップが地面の真実に合致することを示す。
論文 参考訳(メタデータ) (2021-05-17T23:33:04Z) - Kinematic-Structure-Preserved Representation for Unsupervised 3D Human
Pose Estimation [58.72192168935338]
大規模インスタディオデータセットの監視を用いて開発された人間のポーズ推定モデルの一般化可能性については疑問が残る。
本稿では,2対あるいは2対の弱い監督者によって抑制されない,新しいキネマティック構造保存型非教師付き3次元ポーズ推定フレームワークを提案する。
提案モデルでは,前方運動学,カメラ投影,空間マップ変換という3つの連続的な微分可能変換を用いる。
論文 参考訳(メタデータ) (2020-06-24T23:56:33Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。