論文の概要: ForceGrip: Data-Free Curriculum Learning for Realistic Grip Force Control in VR Hand Manipulation
- arxiv url: http://arxiv.org/abs/2503.08061v1
- Date: Tue, 11 Mar 2025 05:39:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:41:38.035859
- Title: ForceGrip: Data-Free Curriculum Learning for Realistic Grip Force Control in VR Hand Manipulation
- Title(参考訳): ForceGrip:VRハンド操作におけるリアルグリップ力制御のためのデータフリーカリキュラム学習
- Authors: DongHeun Han, Byungmin Kim, RoUn Lee, KyeongMin Kim, Hyoseok Hwang, HyeongYeop Kang,
- Abstract要約: 本稿では,現実的な手操作動作を合成する深層学習エージェントであるForceGripを紹介する。
我々は、指の位置決め、意図適応、動的安定化を含む3段階のカリキュラム学習フレームワークを採用する。
以上の結果から,ForceGripの出力制御性と信頼性は最先端の手法に比べて優れていた。
- 参考スコア(独自算出の注目度): 0.10995326465245926
- License:
- Abstract: Realistic hand manipulation is a key component of immersive virtual reality (VR), yet existing methods often rely on a kinematic approach or motion-capture datasets that omit crucial physical attributes such as contact forces and finger torques. Consequently, these approaches prioritize tight, one-size-fits-all grips rather than reflecting users' intended force levels. We present ForceGrip, a deep learning agent that synthesizes realistic hand manipulation motions, faithfully reflecting the user's grip force intention. Instead of mimicking predefined motion datasets, ForceGrip uses generated training scenarios-randomizing object shapes, wrist movements, and trigger input flows-to challenge the agent with a broad spectrum of physical interactions. To effectively learn from these complex tasks, we employ a three-phase curriculum learning framework comprising Finger Positioning, Intention Adaptation, and Dynamic Stabilization. This progressive strategy ensures stable hand-object contact, adaptive force control based on user inputs, and robust handling under dynamic conditions. Additionally, a proximity reward function enhances natural finger motions and accelerates training convergence. Quantitative and qualitative evaluations reveal ForceGrip's superior force controllability and plausibility compared to state-of-the-art methods.
- Abstract(参考訳): 現実的な手操作は没入型バーチャルリアリティ(VR)の重要な要素であるが、既存の手法では、接触力や指のトルクといった重要な物理的特性を省略するキネマティックなアプローチやモーションキャプチャーデータセットに依存していることが多い。
その結果、これらのアプローチは、ユーザの意図する力レベルを反映するのではなく、厳密でワンサイズなグリップを優先する。
本稿では,現実的な手操作動作を合成し,ユーザの握力意図を忠実に反映する深層学習エージェントであるForceGripを紹介する。
事前に定義された動作データセットを模倣する代わりに、ForceGripは生成されたトレーニングシナリオを使用して、オブジェクトの形状や手首の動きをランダム化し、入力フローをトリガーすることで、エージェントを幅広い物理的相互作用で挑戦する。
これらの複雑なタスクから効果的に学習するために、指の位置決め、意図適応、動的安定化を含む3段階のカリキュラム学習フレームワークを用いる。
このプログレッシブ戦略は、安定したハンドオブジェクト接触、ユーザ入力に基づく適応力制御、動的条件下でのロバスト処理を保証する。
さらに、近接報酬関数は自然な指の動きを高め、トレーニング収束を加速する。
定量的および定性的な評価は、ForceGripの最先端の手法と比較して、優れた力制御性と妥当性を示す。
関連論文リスト
- Learning Gentle Grasping from Human-Free Force Control Demonstration [4.08734863805696]
そこで本研究では,データサイズに制限のある人手と同様の動作を実現するために,理想的な力制御実験から把握する手法を提案する。
提案手法は,人間の実演を伴わない参照力曲線の自動生成に,既知の接触特性を持つ物体を用いる。
この方法は視覚に基づく触覚センサに効果的に適用でき、地面からの物体の緩やかで安定した把握を可能にする。
論文 参考訳(メタデータ) (2024-09-16T15:14:53Z) - Continual Policy Distillation of Reinforcement Learning-based Controllers for Soft Robotic In-Hand Manipulation [5.601529531526852]
ソフトロボットハンドは、物体の握りと操作中に柔軟性と適応性を提供する。
我々は,手動操作のための多目的制御器を取得するための連続ポリシー蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-05T17:05:45Z) - Twisting Lids Off with Two Hands [82.21668778600414]
シミュレーションで訓練された政策を実世界へ効果的かつ効率的に移行する方法を示す。
具体的には,ボトル状物体の蓋を両手でねじる問題について考察する。
これは、バイマガル・マルチフィンガーハンドでそのような機能を実現する最初のsim-to-real RLシステムである。
論文 参考訳(メタデータ) (2024-03-04T18:59:30Z) - Modular Neural Network Policies for Learning In-Flight Object Catching
with a Robot Hand-Arm System [55.94648383147838]
本稿では,ロボットハンドアームシステムによる飛行物体の捕獲方法の学習を可能にするモジュラーフレームワークを提案する。
本フレームワークは,物体の軌跡予測を学習するオブジェクト状態推定器,(ii)捕捉対象のポーズのスコアとランク付けを学ぶキャッチポーズ品質ネットワーク,(iii)ロボットハンドをキャッチ前ポーズに移動させるように訓練されたリーチ制御ポリシ,(iv)ソフトキャッチ動作を行うように訓練された把握制御ポリシの5つのコアモジュールから構成される。
各モジュールと統合システムのシミュレーションにおいて、我々のフレームワークを広範囲に評価し、飛行における高い成功率を示す。
論文 参考訳(メタデータ) (2023-12-21T16:20:12Z) - Towards Transferring Tactile-based Continuous Force Control Policies
from Simulation to Robot [19.789369416528604]
グリップフォースコントロールは、物体に作用する力の量を制限することによって、物体を安全に操作することを目的としている。
以前の作品では、手動制御器、モデルベースのアプローチ、あるいはsim-to-realトランスファーを示さなかった。
シミュレーションで訓練されたモデルなしの深層強化学習手法を提案し,さらに微調整を行わずにロボットに移行した。
論文 参考訳(メタデータ) (2023-11-13T11:29:06Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - Physics-Based Dexterous Manipulations with Estimated Hand Poses and
Residual Reinforcement Learning [52.37106940303246]
ノイズの多い入力ポーズをターゲットの仮想ポーズにマッピングするモデルを学習する。
モデルフリーハイブリッドRL+ILアプローチを用いて残留条件下で訓練する。
筆者らは,VRにおける手動物体の相互作用と,それを用いた手動物体の動作再構成という,手動姿勢推定を用いた2つのアプリケーションで,我々のフレームワークを検証した。
論文 参考訳(メタデータ) (2020-08-07T17:34:28Z) - Learning Compliance Adaptation in Contact-Rich Manipulation [81.40695846555955]
本稿では,コンタクトリッチタスクに必要な力プロファイルの予測モデルを学習するための新しいアプローチを提案する。
このアプローチは、双方向Gated Recurrent Units (Bi-GRU) に基づく異常検出と適応力/インピーダンス制御を組み合わせたものである。
論文 参考訳(メタデータ) (2020-05-01T05:23:34Z) - Gaining a Sense of Touch. Physical Parameters Estimation using a Soft
Gripper and Neural Networks [3.0892724364965005]
ロボットグリップを用いた物体との直接相互作用の測定における深層学習アルゴリズムを用いた物理パラメータ推定に関する十分な研究はない。
本研究では、剛性係数の回帰をトレーニング可能なシステムを提案し、物理シミュレータ環境を用いて広範な実験を行った。
本システムでは,Yale OpenHandソフトグリップを用いて,指に装着した慣性測定ユニット(IMU)の読み値に基づいて,物体の硬さを確実に推定することができる。
論文 参考訳(メタデータ) (2020-03-02T11:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。