論文の概要: In-the-Wild Compliant Manipulation with UMI-FT
- arxiv url: http://arxiv.org/abs/2601.09988v1
- Date: Thu, 15 Jan 2026 02:00:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.785252
- Title: In-the-Wild Compliant Manipulation with UMI-FT
- Title(参考訳): UMI-FTを用いたイン・ザ・ウィルド・コンピテント・マニピュレーション
- Authors: Hojung Choi, Yifan Hou, Chuer Pan, Seongheon Hong, Austin Patel, Xiaomeng Xu, Mark R. Cutkosky, Shuran Song,
- Abstract要約: UMI-FTは手持ちのデータ収集プラットフォームで、指に6軸の力/トルクセンサーを装着する。
我々は,標準コンプライアンスコントローラ上での位置目標,把握力,厳格性を予測する適応コンプライアンスポリシーを訓練する。
- 参考スコア(独自算出の注目度): 18.632109897570835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many manipulation tasks require careful force modulation. With insufficient force the task may fail, while excessive force could cause damage. The high cost, bulky size and fragility of commercial force/torque (F/T) sensors have limited large-scale, force-aware policy learning. We introduce UMI-FT, a handheld data-collection platform that mounts compact, six-axis force/torque sensors on each finger, enabling finger-level wrench measurements alongside RGB, depth, and pose. Using the multimodal data collected from this device, we train an adaptive compliance policy that predicts position targets, grasp force, and stiffness for execution on standard compliance controllers. In evaluations on three contact-rich, force-sensitive tasks (whiteboard wiping, skewering zucchini, and lightbulb insertion), UMI-FT enables policies that reliably regulate external contact forces and internal grasp forces, outperforming baselines that lack compliance or force sensing. UMI-FT offers a scalable path to learning compliant manipulation from in-the-wild demonstrations. We open-source the hardware and software to facilitate broader adoption at:https://umi-ft.github.io/.
- Abstract(参考訳): 多くの操作タスクは、注意深い力変調を必要とする。
力不足で作業が失敗する可能性があり、過度な力が損傷を引き起こす可能性がある。
商用力/トルクセンサ(F/T)の高コスト、大容量サイズ、および脆弱性は、大規模かつ力覚的なポリシー学習を制限している。
指に6軸力/トルクセンサーを装着し,RGB,深度,ポーズとともに指レベルのレンチ計測を可能にする携帯型データ収集プラットフォームであるUMI-FTを導入する。
本装置から収集したマルチモーダルデータを用いて,標準コンプライアンスコントローラ上での位置目標,把握力,剛性を予測する適応コンプライアンスポリシーを訓練する。
UMI-FTは3つの接触に富んだ力覚的タスク(ホワイトボードワイピング、スキューイング・ズキニ、電球挿入)の評価において、外部接触力と内部把握力を確実に制御し、コンプライアンスや力覚に欠けるベースラインを向上する政策を可能にしている。
UMI-FTは、ワイルドなデモから適合した操作を学ぶためのスケーラブルなパスを提供する。
ハードウェアとソフトウェアをオープンソースにして、より広範な採用を促進するために、https://umi-ft.github.io/.com/で公開しています。
関連論文リスト
- ForceVLA2: Unleashing Hybrid Force-Position Control with Force Awareness for Contact-Rich Manipulation [75.39847750457626]
エンドツーエンドの視覚言語アクションフレームワークであるForceVLA2は、ハイブリッドな力配置制御と明示的な力覚を備えたロボットを装備する。
学習と評価を支援するために,5つの接触豊富なタスクに1,000の軌道を含むForceVLA2-Datasetを構築した。
実験により、ForceVLA2は接触リッチな操作における成功率と信頼性を大幅に改善することが示された。
論文 参考訳(メタデータ) (2026-03-16T12:03:58Z) - Direction Matters: Learning Force Direction Enables Sim-to-Real Contact-Rich Manipulation [28.707088673008172]
本稿では,専門家が設計したコントローラロジックを転送に利用するフレームワークを提案する。
タスクにおける特権的監督の成功に触発されて、シミュレーションには人間によって設計された有限状態マシンベースの位置/力制御を用いる。
シミュレーションの不正確さに非常に敏感な力の大きさとは異なり、力の方向はハイレベルなタスク形状を符号化し、シム・トゥ・リアルギャップをまたいで頑健なままである。
論文 参考訳(メタデータ) (2026-02-15T14:57:13Z) - Rigidity-Based Multi-Finger Coordination for Precise In-Hand Manipulation of Force-Sensitive Objects [5.313029497667778]
マルチフィンガーハンドは指先接触のみに依存しており、プルフォースを適用できない。
力覚的物体の高精度な操作を可能にする多指協調のための二重層フレームワークを提案する。
我々は、このフレームワークをカスタムなデクスタラスな手で検証し、脆弱なオブジェクトを操作できることを実証した。
論文 参考訳(メタデータ) (2026-02-15T11:40:39Z) - Semantic-Contact Fields for Category-Level Generalizable Tactile Tool Manipulation [82.63833405368159]
ツール操作の一般化には、セマンティックプランニングと正確な物理的制御の両方が必要である。
本研究では,密接な接触推定を伴う視覚的意味論を融合した3次元表現であるセマンティック・コンタクト・フィールド(SCFields)を提案する。
スクレイピング、クレヨン描画、剥離の実験は、堅牢なカテゴリレベルの一般化を示している。
論文 参考訳(メタデータ) (2026-02-14T16:05:08Z) - Learning Force-Regulated Manipulation with a Low-Cost Tactile-Force-Controlled Gripper [18.40849472506029]
TF-グリッパー(TF-Gripper)は、触覚をフィードバックとして統合する低コストのパラレルジャウグリップである。
RETAFは、アームポーズ予測から握力制御を分離するフレームワークである。
TF-Gripper と RETAF は,実世界の5つのタスクにおいて,正確な力規制を必要とする。
論文 参考訳(メタデータ) (2026-02-10T17:36:33Z) - UniForce: A Unified Latent Force Model for Robot Manipulation with Diverse Tactile Sensors [51.88112610411651]
そこで本研究では,多様な触覚センサにまたがる共用潜在力空間を学習する,新しい統合された触覚表現学習フレームワークを提案する。
UniForceは、逆ダイナミクス(image-to-force)とフォワードダイナミクス(force-to-image)を共同モデリングすることで、クロスセンサー領域シフトを低減する
高価な外部力/トルクセンサ(F/T)への依存を避けるため,静的平衡を利用して直接センサ・オブジェクト・センサ・インタラクションを介して力対効果データを収集する。
論文 参考訳(メタデータ) (2026-02-01T11:03:01Z) - ForceVLA: Enhancing VLA Models with a Force-aware MoE for Contact-rich Manipulation [62.58034332427291]
ForceVLAは、新しいエンドツーエンド操作フレームワークである。
外部力センシングは、VLAシステム内の第一級のモダリティとして扱う。
論文 参考訳(メタデータ) (2025-05-28T09:24:25Z) - ForceGrip: Reference-Free Curriculum Learning for Realistic Grip Force Control in VR Hand Manipulation [0.10995326465245926]
本稿では,現実的な手操作動作を合成する深層学習エージェントであるForceGripを紹介する。
我々は、指の位置決め、意図適応、動的安定化を含む3段階のカリキュラム学習フレームワークを採用する。
以上の結果から,ForceGripの出力制御性と信頼性は最先端の手法に比べて優れていた。
論文 参考訳(メタデータ) (2025-03-11T05:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。