論文の概要: OSMO: Open-Source Tactile Glove for Human-to-Robot Skill Transfer
- arxiv url: http://arxiv.org/abs/2512.08920v1
- Date: Tue, 09 Dec 2025 18:56:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.104248
- Title: OSMO: Open-Source Tactile Glove for Human-to-Robot Skill Transfer
- Title(参考訳): OSMO:人間とロボットのスキル伝達のためのオープンソースの触覚グローブ
- Authors: Jessica Yin, Haozhi Qi, Youngsun Wi, Sayantan Kundu, Mike Lambeta, William Yang, Changhao Wang, Tingfan Wu, Jitendra Malik, Tess Hellebrekers,
- Abstract要約: 我々は、人間とロボットのスキル伝達用に設計されたウェアラブルな触覚手袋であるOSMOを紹介する。
人間の実演のみに特化して訓練されたロボットポリシーは、困難なコンタクトリッチな操作タスクを実行することができることを実証する。
- 参考スコア(独自算出の注目度): 34.13467792368733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human video demonstrations provide abundant training data for learning robot policies, but video alone cannot capture the rich contact signals critical for mastering manipulation. We introduce OSMO, an open-source wearable tactile glove designed for human-to-robot skill transfer. The glove features 12 three-axis tactile sensors across the fingertips and palm and is designed to be compatible with state-of-the-art hand-tracking methods for in-the-wild data collection. We demonstrate that a robot policy trained exclusively on human demonstrations collected with OSMO, without any real robot data, is capable of executing a challenging contact-rich manipulation task. By equipping both the human and the robot with the same glove, OSMO minimizes the visual and tactile embodiment gap, enabling the transfer of continuous shear and normal force feedback while avoiding the need for image inpainting or other vision-based force inference. On a real-world wiping task requiring sustained contact pressure, our tactile-aware policy achieves a 72% success rate, outperforming vision-only baselines by eliminating contact-related failure modes. We release complete hardware designs, firmware, and assembly instructions to support community adoption.
- Abstract(参考訳): 人間のビデオデモは、ロボットポリシーを学ぶための豊富なトレーニングデータを提供するが、ビデオだけでは、操作をマスターするのに重要なリッチなコンタクト信号をキャプチャすることはできない。
我々は、人間とロボットのスキル伝達用に設計されたオープンソースのウェアラブル触覚手袋であるOSMOを紹介する。
この手袋は指先と手のひらに12個の3軸触覚センサーを搭載し、最先端の手追跡技術と互換性があるように設計されている。
我々は、実際のロボットデータなしで、OSMOで収集された人間のデモにのみ訓練されたロボットポリシーが、挑戦的なコンタクトリッチな操作タスクを実行可能であることを実証した。
ヒトとロボットの両方に同じ手袋を装着することにより、OSMOは視覚的および触覚的エンボディメントギャップを最小化し、画像塗布や他の視覚に基づく力推定の必要性を回避しつつ、連続的なせん断と正常な力フィードバックの伝達を可能にする。
接触圧の持続を要する現実世界の拭き取り作業において、触覚認識ポリシーは72%の成功率を実現し、接触関連故障モードを排除し、視力のみのベースラインを上回った。
コミュニティの採用を支援するため、ハードウェア設計、ファームウェア、組み立て手順を完全リリースします。
関連論文リスト
- Dexterity from Smart Lenses: Multi-Fingered Robot Manipulation with In-the-Wild Human Demonstrations [52.29884993824894]
自然環境で日々のタスクを行う人間から、マルチフィンガーロボットポリシーを学ぶことは、ロボットコミュニティにとって長年の大きな目標だった。
AINAは、Aria Gen 2メガネを使用して、どこでも、どこでも、あらゆる環境で収集されたデータから、マルチフィンガーポリシーを学ぶことができる。
論文 参考訳(メタデータ) (2025-11-20T18:59:02Z) - Feel the Force: Contact-Driven Learning from Humans [52.36160086934298]
操作中のきめ細かい力の制御は、ロボット工学における中核的な課題である。
We present FeelTheForce, a robot learning system that model human tactile behavior to learn force-sensitive control。
提案手法は,5つの力覚的操作タスクで77%の成功率を達成した,スケーラブルな人間の監督において,堅牢な低レベル力制御を実現する。
論文 参考訳(メタデータ) (2025-06-02T17:57:52Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - MimicTouch: Leveraging Multi-modal Human Tactile Demonstrations for Contact-rich Manipulation [8.738889129462013]
ミミックタッチ(MimicTouch)は、人手によるデモンストレーションから直接ポリシーを学ぶための新しいフレームワークである。
i)人間の触覚誘導制御戦略を学習するためのマルチモーダルな触覚データセットを収集する人間の触覚データ収集システム,i)そのようなデータを通して人間の触覚誘導制御戦略を学習するための模倣学習ベースのフレームワーク。
論文 参考訳(メタデータ) (2023-10-25T18:34:06Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。