論文の概要: CaFe-TeleVision: A Coarse-to-Fine Teleoperation System with Immersive Situated Visualization for Enhanced Ergonomics
- arxiv url: http://arxiv.org/abs/2512.14270v2
- Date: Wed, 17 Dec 2025 04:07:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.373371
- Title: CaFe-TeleVision: A Coarse-to-Fine Teleoperation System with Immersive Situated Visualization for Enhanced Ergonomics
- Title(参考訳): CaFe-TeleVision: 高度エルゴノミクスのための没入型可視化機能付き粗大間遠隔操作システム
- Authors: Zixin Tang, Yiming Chen, Quentin Rouxel, Dianxi Li, Shuang Wu, Fei Chen,
- Abstract要約: CaFe-TeleVisionは、高度エルゴノミクスのための没入型ビジョンを備えた粗大な遠隔操作システムである。
このシステムはヒューマノイドのコラボレーティブロボット上に構築され、6つの困難なバイマニュアル操作タスクで検証される。
- 参考スコア(独自算出の注目度): 11.614261546006796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Teleoperation presents a promising paradigm for remote control and robot proprioceptive data collection. Despite recent progress, current teleoperation systems still suffer from limitations in efficiency and ergonomics, particularly in challenging scenarios. In this paper, we propose CaFe-TeleVision, a coarse-to-fine teleoperation system with immersive situated visualization for enhanced ergonomics. At its core, a coarse-to-fine control mechanism is proposed in the retargeting module to bridge workspace disparities, jointly optimizing efficiency and physical ergonomics. To stream immersive feedback with adequate visual cues for human vision systems, an on-demand situated visualization technique is integrated in the perception module, which reduces the cognitive load for multi-view processing. The system is built on a humanoid collaborative robot and validated with six challenging bimanual manipulation tasks. User study among 24 participants confirms that CaFe-TeleVision enhances ergonomics with statistical significance, indicating a lower task load and a higher user acceptance during teleoperation. Quantitative results also validate the superior performance of our system across six tasks, surpassing comparative methods by up to 28.89% in success rate and accelerating by 26.81% in completion time. Project webpage: https://clover-cuhk.github.io/cafe_television/
- Abstract(参考訳): 遠隔操作は遠隔操作とロボットの受容的データ収集に有望なパラダイムを提供する。
最近の進歩にもかかわらず、現在の遠隔操作システムは、特に困難なシナリオにおいて、効率と人間工学の限界に悩まされている。
本稿では,高度エルゴノミクスのための没入型位置可視化システムCaFe-TeleVisionを提案する。
その中核となるのは、ワークスペースの格差を橋渡しするリターゲットモジュールにおいて、効率と物理的エルゴノミクスを共同最適化する粗大な制御機構を提案することである。
人間の視覚システムに適切な視覚的手がかりで没入型フィードバックをストリームするために、オンデマンド位置可視化技術が認識モジュールに統合され、マルチビュー処理の認知負荷が軽減される。
このシステムはヒューマノイドのコラボレーティブロボット上に構築され、6つの困難なバイマニュアル操作タスクで検証される。
24名の被験者を対象に,CaFe-TeleVisionによるエルゴノミクスの統計的意義の向上が確認され,遠隔操作時のタスク負荷の低減とユーザ受け入れの促進が示唆された。
また,6つのタスクにまたがるシステムの性能を定量的に検証し,成功率28.89%,完了時間26.81%に向上した。
プロジェクトWebページ: https://clover-cuhk.github.io/cafe_television/
関連論文リスト
- The Role of Embodiment in Intuitive Whole-Body Teleoperation for Mobile Manipulation [20.65893345441958]
最小限の物理的および認知的要求と組み合わさった強い実施感は、長期にわたってデータ品質を維持するのに役立つ。
我々は、没入型バーチャルリアリティと、ロボットの視野を従来のスクリーンベースで可視化する2つの視覚的フィードバックメカニズムを評価する。
以上の結果から,VRをフィードバックモダリティとして利用すると,タスク完了時間,認知作業量,テレオペレータの取り組みが増加することが示唆された。
論文 参考訳(メタデータ) (2025-09-03T11:25:36Z) - Casper: Inferring Diverse Intents for Assistive Teleoperation with Vision Language Models [50.19518681574399]
現実の遠隔操作における中心的な課題は、ロボットがユーザー制御入力から幅広い人間の意図を推測することである。
我々は、事前学習された視覚言語モデルに埋め込まれたコモンセンス知識を活用する、支援型遠隔操作システムであるCasperを紹介する。
我々は,Casperがタスク性能を改善し,人間の認知負荷を低減し,直接遠隔操作や補助遠隔操作のベースラインよりもユーザ満足度が高いことを示す。
論文 参考訳(メタデータ) (2025-06-17T17:06:43Z) - Bunny-VisionPro: Real-Time Bimanual Dexterous Teleoperation for Imitation Learning [46.825127991899784]
本稿では,VRヘッドセットを活用したリアルタイム双方向デキスタラス遠隔操作システムであるBunny-VisionProを紹介する。
従来のビジョンベースの遠隔操作システムとは異なり、我々は演算子に触覚フィードバックを提供するために、新しい低コストデバイスを設計する。
Bunny-VisionProは、標準的なタスクスイートで以前のシステムよりも優れており、より高い成功率とタスク完了時間の短縮を実現している。
論文 参考訳(メタデータ) (2024-07-03T14:35:35Z) - Open-TeleVision: Teleoperation with Immersive Active Visual Feedback [17.505318269362512]
Open-TeleVisionは、オペレーターが立体的にロボットの周囲を積極的に知覚することを可能にする。
このシステムは操作者の腕と手の動きをロボットに反映し、没入感のある体験を作り出す。
本システムの有効性は,長期的かつ正確な4つの課題に対して,データ収集と模倣学習ポリシーの訓練によって検証する。
論文 参考訳(メタデータ) (2024-07-01T17:55:35Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - AnyTeleop: A General Vision-Based Dexterous Robot Arm-Hand Teleoperation System [51.48191418148764]
ビジョンベースの遠隔操作は、人間レベルの知性をロボットに与え、環境と対話させる。
現在のビジョンベースの遠隔操作システムは、特定のロボットモデルとデプロイ環境に向けて設計・設計されている。
我々は、複数の異なる腕、手、現実、カメラ構成を単一のシステム内でサポートする、統一的で汎用的な遠隔操作システムであるAnyTeleopを提案する。
論文 参考訳(メタデータ) (2023-07-10T14:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。