論文の概要: dARt Vinci: Egocentric Data Collection for Surgical Robot Learning at Scale
- arxiv url: http://arxiv.org/abs/2503.05646v1
- Date: Fri, 07 Mar 2025 18:07:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:21:13.253481
- Title: dARt Vinci: Egocentric Data Collection for Surgical Robot Learning at Scale
- Title(参考訳): dARt Vinci: 大規模な手術ロボット学習のためのエゴセントリックなデータ収集
- Authors: Yihao Liu, Yu-Chun Ku, Jiaming Zhang, Hao Ding, Peter Kazanzides, Mehran Armand,
- Abstract要約: 本稿では,手術環境におけるロボット学習のためのスケーラブルなデータ収集プラットフォームであるdARt Vinciを紹介する。
このシステムは、Augmented Reality(AR)ハンドトラッキングと高忠実度物理エンジンを使って、原始的な外科手術の微妙な操作を捉えている。
- 参考スコア(独自算出の注目度): 9.732963094538837
- License:
- Abstract: Data scarcity has long been an issue in the robot learning community. Particularly, in safety-critical domains like surgical applications, obtaining high-quality data can be especially difficult. It poses challenges to researchers seeking to exploit recent advancements in reinforcement learning and imitation learning, which have greatly improved generalizability and enabled robots to conduct tasks autonomously. We introduce dARt Vinci, a scalable data collection platform for robot learning in surgical settings. The system uses Augmented Reality (AR) hand tracking and a high-fidelity physics engine to capture subtle maneuvers in primitive surgical tasks: By eliminating the need for a physical robot setup and providing flexibility in terms of time, space, and hardware resources-such as multiview sensors and actuators-specialized simulation is a viable alternative. At the same time, AR allows the robot data collection to be more egocentric, supported by its body tracking and content overlaying capabilities. Our user study confirms the proposed system's efficiency and usability, where we use widely-used primitive tasks for training teleoperation with da Vinci surgical robots. Data throughput improves across all tasks compared to real robot settings by 41% on average. The total experiment time is reduced by an average of 10%. The temporal demand in the task load survey is improved. These gains are statistically significant. Additionally, the collected data is over 400 times smaller in size, requiring far less storage while achieving double the frequency.
- Abstract(参考訳): データ不足は、ロボット学習コミュニティで長い間問題となっていた。
特に、外科的応用のような安全クリティカルな領域では、高品質なデータを取得することは特に困難である。
これは、強化学習と模倣学習の最近の進歩を活用しようとする研究者にとって、課題となる。
本稿では,手術環境におけるロボット学習のためのスケーラブルなデータ収集プラットフォームであるdARt Vinciを紹介する。
このシステムはAugmented Reality(AR)ハンドトラッキングと高忠実度物理エンジンを使用して、原始的な外科手術の微妙な操作を捉える。
同時にARにより、ロボットのデータ収集はよりエゴセントリックになり、身体のトラッキングとコンテンツオーバーレイ機能によってサポートされる。
本稿では,ダ・ヴィンチ手術ロボットによる遠隔操作の訓練に広く利用されている原始的タスクを用いて,提案システムの効率性とユーザビリティを確認した。
データスループットは、実際のロボット設定よりも平均41%向上する。
実験時間は平均10%削減される。
タスク負荷調査における時間的需要を改善した。
これらの利得は統計的に有意である。
さらに、収集されたデータは400倍以上のサイズで、周波数を2倍にしながら、はるかに少ないストレージを必要とする。
関連論文リスト
- Towards General Purpose Robots at Scale: Lifelong Learning and Learning to Use Memory [0.0]
このテーマは、記憶と生涯学習という、長い時間をかけて動くロボットにとっての2つの重要な課題に対処することに焦点を当てている。
まず,連続世界ベンチマークにおける最先端性能を実現するトラジェクトリベースディープ生成再生法であるt-DGRを紹介する。
第2に,人間の実演を利用してエージェントに効果的なメモリ利用を教えるフレームワークを開発する。
論文 参考訳(メタデータ) (2024-12-28T21:13:48Z) - Robots Pre-train Robots: Manipulation-Centric Robotic Representation from Large-Scale Robot Datasets [24.77850617214567]
本稿では,視覚的特徴と操作タスクの行動や受容といった動的情報の両方を抽出する基礎表現学習フレームワークを提案する。
具体的には、DROIDロボットデータセット上で視覚エンコーダを事前訓練し、ロボットの受容状態や動作などの動作関連データを活用する。
本研究では,視覚的観察をロボットの主観的状態-動作ダイナミクスと整合させる新しいコントラスト的損失と,事前トレーニング中の行動を予測する行動クローニング(BC)のようなアクター損失と,時間的コントラスト的損失を導入する。
論文 参考訳(メタデータ) (2024-10-29T17:58:13Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Surgical Gym: A high-performance GPU-based platform for reinforcement
learning with surgical robots [1.6415802723978308]
手術ロボット学習のためのオープンソースの高性能プラットフォームである手術用Gymを紹介する。
従来の外科的学習プラットフォームと比較して,100~5000倍の訓練時間を短縮した。
論文 参考訳(メタデータ) (2023-10-07T03:21:58Z) - AR2-D2:Training a Robot Without a Robot [53.10633639596096]
専門的な訓練を要さないデモを収集するシステムであるAR2-D2を紹介する。
AR2-D2は、iOSアプリの形式で、あらゆるオブジェクトを操作する自身のビデオを記録するために使用することができるフレームワークである。
本研究では,本システムを用いて収集したデータにより,実物操作における行動クローニングエージェントの訓練が可能となることを示す。
論文 参考訳(メタデータ) (2023-06-23T23:54:26Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Scaling Robot Learning with Semantically Imagined Experience [21.361979238427722]
ロボット学習の最近の進歩は、ロボットが操作タスクを実行できることを約束している。
この進歩に寄与する要因の1つは、モデルのトレーニングに使用されるロボットデータのスケールである。
本稿では,コンピュータビジョンや自然言語処理に広く用いられているテキスト・ツー・イメージ基盤モデルを利用した代替手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T18:47:51Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。