論文の概要: Human-in-the-loop Embodied Intelligence with Interactive Simulation
Environment for Surgical Robot Learning
- arxiv url: http://arxiv.org/abs/2301.00452v2
- Date: Tue, 6 Jun 2023 05:48:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 21:16:42.197703
- Title: Human-in-the-loop Embodied Intelligence with Interactive Simulation
Environment for Surgical Robot Learning
- Title(参考訳): 手術ロボット学習のための対話型シミュレーション環境を用いたヒューマン・イン・ザ・ループ・エンボディド・インテリジェンス
- Authors: Yonghao Long, Wang Wei, Tao Huang, Yuehao Wang, Qi Dou
- Abstract要約: 我々は,手術ロボット学習のための対話型シミュレーションプラットフォームを用いて,人体とループのインボディードインテリジェンスについて検討した。
具体的には、以前リリースしたSurRoLシミュレータに基づいて、いくつかの新機能を備えたプラットフォームを構築します。
本稿では, シミュレーション環境の改善を, 設計した新機能で紹介し, 具体的インテリジェンスに人的要因を組み込むことの有効性を検証した。
- 参考スコア(独自算出の注目度): 19.390115282150337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgical robot automation has attracted increasing research interest over the
past decade, expecting its potential to benefit surgeons, nurses and patients.
Recently, the learning paradigm of embodied intelligence has demonstrated
promising ability to learn good control policies for various complex tasks,
where embodied AI simulators play an essential role to facilitate relevant
research. However, existing open-sourced simulators for surgical robot are
still not sufficiently supporting human interactions through physical input
devices, which further limits effective investigations on how the human
demonstrations would affect policy learning. In this work, we study
human-in-the-loop embodied intelligence with a new interactive simulation
platform for surgical robot learning. Specifically, we establish our platform
based on our previously released SurRoL simulator with several new features
co-developed to allow high-quality human interaction via an input device. We
showcase the improvement of our simulation environment with the designed new
features, and validate effectiveness of incorporating human factors in embodied
intelligence through the use of human demonstrations and reinforcement learning
as a representative example. Promising results are obtained in terms of
learning efficiency. Lastly, five new surgical robot training tasks are
developed and released, with which we hope to pave the way for future research
on surgical embodied intelligence. Our learning platform is publicly released
and will be continuously updated in the website:
https://med-air.github.io/SurRoL.
- Abstract(参考訳): 手術ロボットの自動化は、過去10年間で研究の関心が高まり、外科医、看護師、患者に利益をもたらす可能性が期待されている。
近年、インボディードインテリジェンスの学習パラダイムは、インボディードAIシミュレータが関連する研究を促進する上で重要な役割を果たす様々な複雑なタスクに対して、優れた制御ポリシーを学習する有望な能力を示している。
しかし、既存の手術ロボット用のオープンソースシミュレータは、物理的な入力デバイスを介して人間のインタラクションを十分にサポートしていないため、人間のデモンストレーションが政策学習にどう影響するかについての効果的な調査は制限されている。
本研究では,手術ロボット学習のための対話型シミュレーションプラットフォームを用いて,人間の身体内知性について検討する。
具体的には、前回リリースしたsurrolシミュレータに基づいて、入力デバイスによる高品質なヒューマンインタラクションを可能にするために、いくつかの新機能を共同開発したプラットフォームを構築します。
本稿では,新しい特徴をデザインしたシミュレーション環境の改善を例示し,人間実験と強化学習を代表例として,具体的知性におけるヒューマンファクターの導入の有効性を検証する。
有望な結果は学習効率の観点から得られる。
最後に,5つの新しい手術ロボット訓練タスクを開発しリリースし,今後,外科的具体化インテリジェンスの研究の道を開いたいと願っている。
私たちの学習プラットフォームは公開されており、Webサイトで継続的に更新されます。
関連論文リスト
- VITAL: Visual Teleoperation to Enhance Robot Learning through Human-in-the-Loop Corrections [10.49712834719005]
本稿では,VITAL と呼ばれる双方向操作作業のための低コストな視覚遠隔操作システムを提案する。
われわれのアプローチは、安価なハードウェアとビジュアル処理技術を利用してデモを収集する。
実環境と模擬環境の両方を活用することにより,学習方針の一般化性と堅牢性を高める。
論文 参考訳(メタデータ) (2024-07-30T23:29:47Z) - Human-Robot Mutual Learning through Affective-Linguistic Interaction and Differential Outcomes Training [Pre-Print] [0.3811184252495269]
本研究では,感情言語コミュニケーションが人間ロボットの文脈における相互学習にどのように影響するかを検証する。
児童介護のダイナミックスからインスピレーションを得て、私たちの人間とロボットのインタラクションのセットアップは、内部的、ホメオスタティックに制御されたニーズのコミュニケーション方法を学ぶための(シミュレートされた)ロボットで構成されています。
論文 参考訳(メタデータ) (2024-07-01T13:35:08Z) - RoboGen: Towards Unleashing Infinite Data for Automated Robot Learning via Generative Simulation [68.70755196744533]
RoboGenはジェネレーティブなロボットエージェントで、ジェネレーティブなシミュレーションを通じて、さまざまなロボットのスキルを自動的に学習する。
我々の研究は、大規模モデルに埋め込まれた広範囲で多目的な知識を抽出し、それらをロボット工学の分野に移す試みである。
論文 参考訳(メタデータ) (2023-11-02T17:59:21Z) - A Human-Robot Mutual Learning System with Affect-Grounded Language
Acquisition and Differential Outcomes Training [0.1812164955222814]
本稿では,ロボットのホメオスタティックなニーズを識別するための,人間とロボットのインタラクション・セットアップを提案する。
我々は,ロボットが内部ニーズに特有のフィードバックを提供する,差分結果学習プロトコルを採用した。
我々は、DOTが人間の学習効率を高めることができるという証拠を発見し、それによってより効率的なロボット言語習得を可能にした。
論文 参考訳(メタデータ) (2023-10-20T09:41:31Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Surgical Gym: A high-performance GPU-based platform for reinforcement
learning with surgical robots [1.6415802723978308]
手術ロボット学習のためのオープンソースの高性能プラットフォームである手術用Gymを紹介する。
従来の外科的学習プラットフォームと比較して,100~5000倍の訓練時間を短縮した。
論文 参考訳(メタデータ) (2023-10-07T03:21:58Z) - Teach Me How to Learn: A Perspective Review towards User-centered
Neuro-symbolic Learning for Robotic Surgical Systems [3.5672486441844553]
近年の機械学習の進歩により、ロボットは知覚的非象徴的なレベルの物体を識別できるようになった。
別の解決策は、知覚的非象徴的および概念的象徴的レベルの両方でロボットに教えることである。
本研究は,ロボットの外科的状況に着目した,ユーザ中心のハイブリッド学習パラダイムのコンセプトを提案する。
論文 参考訳(メタデータ) (2023-07-07T21:58:28Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - SurRoL: An Open-source Reinforcement Learning Centered and dVRK
Compatible Platform for Surgical Robot Learning [78.76052604441519]
SurRoLは、ダ・ヴィンチ・リサーチキット(dVRK)と互換性のある外科ロボット学習のためのRL中心のシミュレーションプラットフォームである。
プラットフォームには10の学習ベースの外科的タスクが構築されており、実際の自律的な外科的実行に共通している。
シミュレーションにおいてRLアルゴリズムを用いてSurRoLの評価を行い、奥行き分析を行い、実際のdVRKにトレーニングされたポリシーをデプロイし、実世界でより優れた転送性を実現することを示す。
論文 参考訳(メタデータ) (2021-08-30T07:43:47Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。