論文の概要: Force-Modulated Visual Policy for Robot-Assisted Dressing with Arm Motions
- arxiv url: http://arxiv.org/abs/2509.12741v1
- Date: Tue, 16 Sep 2025 06:53:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.930909
- Title: Force-Modulated Visual Policy for Robot-Assisted Dressing with Arm Motions
- Title(参考訳): 腕の動きを考慮したロボット支援ドレッシングのための力変調ビジュアルポリシー
- Authors: Alexis Yihong Hao, Yufei Wang, Navin Sriram Ravie, Bharath Hegde, David Held, Zackory Erickson,
- Abstract要約: 我々は、部分的な観察を処理し、腕の動きに頑健に適応できるロボット支援ドレッシングシステムを開発した。
部分観察によるシミュレーションで訓練されたポリシーを前提として,実世界の微調整手法を提案する。
提案手法は,単純化された人間のメッシュを用いたシミュレーションと,12人の参加者による実世界人間実験で評価した。
- 参考スコア(独自算出の注目度): 17.312909681066174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robot-assisted dressing has the potential to significantly improve the lives of individuals with mobility impairments. To ensure an effective and comfortable dressing experience, the robot must be able to handle challenging deformable garments, apply appropriate forces, and adapt to limb movements throughout the dressing process. Prior work often makes simplifying assumptions -- such as static human limbs during dressing -- which limits real-world applicability. In this work, we develop a robot-assisted dressing system capable of handling partial observations with visual occlusions, as well as robustly adapting to arm motions during the dressing process. Given a policy trained in simulation with partial observations, we propose a method to fine-tune it in the real world using a small amount of data and multi-modal feedback from vision and force sensing, to further improve the policy's adaptability to arm motions and enhance safety. We evaluate our method in simulation with simplified articulated human meshes and in a real world human study with 12 participants across 264 dressing trials. Our policy successfully dresses two long-sleeve everyday garments onto the participants while being adaptive to various kinds of arm motions, and greatly outperforms prior baselines in terms of task completion and user feedback. Video are available at https://dressing-motion.github.io/.
- Abstract(参考訳): ロボット支援ドレッシングは、移動性障害を持つ個人の生活を著しく改善する可能性がある。
効果的で快適なドレッシング体験を確保するために、ロボットは、困難な変形可能な衣服を扱い、適切な力を加え、ドレッシングプロセスを通して手足の動きに適応できなければならない。
以前の作業では、現実の応用性を制限するため、ドレッシング中に静的な人間の手足のような仮定を単純化することが多い。
本研究では,視覚的閉塞を伴う部分的な観察を処理できるとともに,ドレッシング中に腕の動きに頑健に適応できるロボット支援ドレッシングシステムを開発した。
部分観察によるシミュレーションで訓練されたポリシーを前提として,少量のデータと視覚と力覚からのマルチモーダルフィードバックを用いて実世界で微調整する方法を提案し,腕の動きへの適応性をさらに向上し,安全性を高める。
提案手法は,簡略化された人間のメッシュを用いたシミュレーション,および実世界における12人の被験者による264回のドレッシング試験で評価した。
各種の腕の動きに適応しながら、2つの長袖の日常服を参加者に着替えることに成功し、タスク完了とユーザフィードバックの点で、これまでのベースラインを大きく上回っている。
ビデオはhttps://dressing-motion.github.io/.comで公開されている。
関連論文リスト
- Feel the Force: Contact-Driven Learning from Humans [52.36160086934298]
操作中のきめ細かい力の制御は、ロボット工学における中核的な課題である。
We present FeelTheForce, a robot learning system that model human tactile behavior to learn force-sensitive control。
提案手法は,5つの力覚的操作タスクで77%の成功率を達成した,スケーラブルな人間の監督において,堅牢な低レベル力制御を実現する。
論文 参考訳(メタデータ) (2025-06-02T17:57:52Z) - HOMIE: Humanoid Loco-Manipulation with Isomorphic Exoskeleton Cockpit [52.12750762494588]
本稿では,半自律遠隔操作システムHOMIEを紹介する。
ペダルにマッピングされた身体制御のための強化学習ポリシー、腕制御のための異形外骨格アーム、手操作のためのモーションセンシンググローブを組み合わせている。
このシステムは完全なオープンソースであり、デモとコードはhttps://homietele.org/.com/で見ることができる。
論文 参考訳(メタデータ) (2025-02-18T16:33:38Z) - ExBody2: Advanced Expressive Humanoid Whole-Body Control [16.69009772546575]
人間のモーションキャプチャーとシミュレーションデータの両方に基づいてトレーニングされた全身トラッキングコントローラの製作法を提案する。
我々は,ロボットのキネマティクスに適合する中間データを生成するために,教師の方針を利用する。
少量のデータによる微調整により追跡性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-12-17T18:59:51Z) - Visual Whole-Body Control for Legged Loco-Manipulation [22.50054654508986]
そこで本研究では,ロボットアームを用いた移動操作の問題点について検討する。
視覚的観察により全身制御を自律的に行うことのできる枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-25T17:26:08Z) - Expressive Whole-Body Control for Humanoid Robots [20.132927075816742]
我々は、人間の動きをできるだけリアルに模倣するために、人間サイズのロボットで全身制御ポリシーを学習する。
シミュレーションとSim2Real転送のトレーニングにより、私たちのポリシーはヒューマノイドロボットを制御して、さまざまなスタイルで歩いたり、人と握手したり、現実世界で人間と踊ったりできる。
論文 参考訳(メタデータ) (2024-02-26T18:09:24Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。