論文の概要: The Role of Embodiment in Intuitive Whole-Body Teleoperation for Mobile Manipulation
- arxiv url: http://arxiv.org/abs/2509.03222v1
- Date: Wed, 03 Sep 2025 11:25:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.496067
- Title: The Role of Embodiment in Intuitive Whole-Body Teleoperation for Mobile Manipulation
- Title(参考訳): 移動操作における直感的全体遠隔操作における身体機能の役割
- Authors: Sophia Bianchi Moyen, Rickmer Krohn, Sophie Lueth, Kay Pompetzki, Jan Peters, Vignesh Prasad, Georgia Chalvatzaki,
- Abstract要約: 最小限の物理的および認知的要求と組み合わさった強い実施感は、長期にわたってデータ品質を維持するのに役立つ。
我々は、没入型バーチャルリアリティと、ロボットの視野を従来のスクリーンベースで可視化する2つの視覚的フィードバックメカニズムを評価する。
以上の結果から,VRをフィードバックモダリティとして利用すると,タスク完了時間,認知作業量,テレオペレータの取り組みが増加することが示唆された。
- 参考スコア(独自算出の注目度): 20.65893345441958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intuitive Teleoperation interfaces are essential for mobile manipulation robots to ensure high quality data collection while reducing operator workload. A strong sense of embodiment combined with minimal physical and cognitive demands not only enhances the user experience during large-scale data collection, but also helps maintain data quality over extended periods. This becomes especially crucial for challenging long-horizon mobile manipulation tasks that require whole-body coordination. We compare two distinct robot control paradigms: a coupled embodiment integrating arm manipulation and base navigation functions, and a decoupled embodiment treating these systems as separate control entities. Additionally, we evaluate two visual feedback mechanisms: immersive virtual reality and conventional screen-based visualization of the robot's field of view. These configurations were systematically assessed across a complex, multi-stage task sequence requiring integrated planning and execution. Our results show that the use of VR as a feedback modality increases task completion time, cognitive workload, and perceived effort of the teleoperator. Coupling manipulation and navigation leads to a comparable workload on the user as decoupling the embodiments, while preliminary experiments suggest that data acquired by coupled teleoperation leads to better imitation learning performance. Our holistic view on intuitive teleoperation interfaces provides valuable insight into collecting high-quality, high-dimensional mobile manipulation data at scale with the human operator in mind. Project website:https://sophiamoyen.github.io/role-embodiment-wbc-moma-teleop/
- Abstract(参考訳): 直感的遠隔操作インタフェースは、オペレータの作業量を削減しつつ高品質なデータ収集を確保するためにモバイル操作ロボットにとって不可欠である。
エンボディメントの強い感覚と最小限の物理的および認知的要求が組み合わさって、大規模なデータ収集時のユーザエクスペリエンスを高めるだけでなく、長期にわたってデータ品質を維持するのにも役立ちます。
これは、体全体の調整を必要とする長距離移動操作タスクに挑戦する上で、特に重要となる。
我々は,アーム操作とベースナビゲーション機能を組み合わせたロボット制御パラダイムと,これらシステムを独立した制御エンティティとして扱う分離型エボディメントの2つを比較した。
さらに、没入型バーチャルリアリティーと従来の画面に基づくロボットの視野の可視化という2つの視覚的フィードバックメカニズムを評価した。
これらの構成は、複雑な多段階のタスクシーケンスにわたって体系的に評価され、統合的な計画と実行を必要とした。
以上の結果から,VRをフィードバックモダリティとして利用すると,タスク完了時間,認知作業量,テレオペレータの取り組みが増加することが示唆された。
操作とナビゲーションの結合は、エボディメントの分離と同等の作業負荷につながるが、予備的な実験では、統合された遠隔操作によって取得したデータが模倣学習のパフォーマンスを向上させることが示唆されている。
我々の直感的遠隔操作インタフェースに関する総合的な見解は、人間のオペレータを念頭において、高品質で高次元なモバイル操作データを大規模に収集するための貴重な洞察を提供する。
プロジェクトウェブサイト:https://sophiamoyen.github.io/role-embodiment-wbc-moma-teleop/
関連論文リスト
- End-to-End Dexterous Arm-Hand VLA Policies via Shared Autonomy: VR Teleoperation Augmented by Autonomous Hand VLA Policy for Efficient Data Collection [10.217810309422232]
マクロモーションとマイクロモーションの制御を分割するフレームワークを提案する。
人間のオペレーターが直感的なVR遠隔操作を通してロボットの腕のポーズをガイドします。
自律的なDexGrasp-VLAポリシは、リアルタイム触覚と視覚フィードバックを使用して、きめ細かい手制御を処理する。
論文 参考訳(メタデータ) (2025-10-31T16:12:02Z) - HHI-Assist: A Dataset and Benchmark of Human-Human Interaction in Physical Assistance Scenario [63.77482302352545]
HHI-Assist(ヒヒ・アシスト)は、人間の介助作業における人間のインタラクションのモーションキャプチャークリップからなるデータセットである。
私たちの研究は、ロボット支援ポリシーを大幅に強化する可能性がある。
論文 参考訳(メタデータ) (2025-09-12T09:38:17Z) - Casper: Inferring Diverse Intents for Assistive Teleoperation with Vision Language Models [50.19518681574399]
現実の遠隔操作における中心的な課題は、ロボットがユーザー制御入力から幅広い人間の意図を推測することである。
我々は、事前学習された視覚言語モデルに埋め込まれたコモンセンス知識を活用する、支援型遠隔操作システムであるCasperを紹介する。
我々は,Casperがタスク性能を改善し,人間の認知負荷を低減し,直接遠隔操作や補助遠隔操作のベースラインよりもユーザ満足度が高いことを示す。
論文 参考訳(メタデータ) (2025-06-17T17:06:43Z) - Whole-Body Teleoperation for Mobile Manipulation at Zero Added Cost [8.71539730969424]
MoMa-Teleopは、既存のインターフェースからエンドエフェクタ動作を推測する新しい遠隔操作手法である。
提案手法は,様々なロボットやタスクに対して,タスク完了時間が大幅に短縮されることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:09:45Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Error-Aware Imitation Learning from Teleoperation Data for Mobile
Manipulation [54.31414116478024]
移動操作(MM)では、ロボットは環境内を移動して操作することができる。
本研究では,MMタスクに対する連続的なビジュオモダポリシの学習に模倣学習(IL)を適用する方法について検討する。
論文 参考訳(メタデータ) (2021-12-09T23:54:59Z) - Learning Visually Guided Latent Actions for Assistive Teleoperation [9.75385535829762]
視覚入力に潜伏埋め込みを条件とした補助ロボットを開発。
少量の安価で収集しやすい構造データに予め訓練されたオブジェクト検出器を組み込むことにより、i)現在のコンテキストを正確に認識し、ii)新しいオブジェクトやタスクへの制御埋め込みを一般化する。
論文 参考訳(メタデータ) (2021-05-02T23:58:28Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。