論文の概要: Surgical Gym: A high-performance GPU-based platform for reinforcement
learning with surgical robots
- arxiv url: http://arxiv.org/abs/2310.04676v1
- Date: Sat, 7 Oct 2023 03:21:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 16:49:30.707126
- Title: Surgical Gym: A high-performance GPU-based platform for reinforcement
learning with surgical robots
- Title(参考訳): 外科用Gym: 外科用ロボットによる強化学習のための高性能GPUベースプラットフォーム
- Authors: Samuel Schmidgall, Axel Krieger, Jason Eshraghian
- Abstract要約: 手術ロボット学習のためのオープンソースの高性能プラットフォームである手術用Gymを紹介する。
従来の外科的学習プラットフォームと比較して,100~5000倍の訓練時間を短縮した。
- 参考スコア(独自算出の注目度): 1.6415802723978308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in robot-assisted surgery have resulted in progressively more
precise, efficient, and minimally invasive procedures, sparking a new era of
robotic surgical intervention. This enables doctors, in collaborative
interaction with robots, to perform traditional or minimally invasive surgeries
with improved outcomes through smaller incisions. Recent efforts are working
toward making robotic surgery more autonomous which has the potential to reduce
variability of surgical outcomes and reduce complication rates. Deep
reinforcement learning methodologies offer scalable solutions for surgical
automation, but their effectiveness relies on extensive data acquisition due to
the absence of prior knowledge in successfully accomplishing tasks. Due to the
intensive nature of simulated data collection, previous works have focused on
making existing algorithms more efficient. In this work, we focus on making the
simulator more efficient, making training data much more accessible than
previously possible. We introduce Surgical Gym, an open-source high performance
platform for surgical robot learning where both the physics simulation and
reinforcement learning occur directly on the GPU. We demonstrate between
100-5000x faster training times compared with previous surgical learning
platforms. The code is available at:
https://github.com/SamuelSchmidgall/SurgicalGym.
- Abstract(参考訳): ロボット支援手術の最近の進歩は、徐々に正確で、効率的で、最小限の侵襲的な処置をもたらし、ロボットによる外科手術の新しい時代を巻き起こした。
これにより、医師は、ロボットと協調して、より小さな切開により、従来のまたは最小の侵襲的な手術を行うことができる。
最近の取り組みは、手術結果の変動を低減し、合併症率を低減できるロボット手術をより自律的にすることに取り組んでいる。
深層強化学習手法は手術の自動化にスケーラブルなソリューションを提供するが、その有効性は、タスクをうまくこなすための事前知識がないため、広範なデータ取得に依存している。
シミュレーションデータ収集の強い性質のため、従来の研究は既存のアルゴリズムをより効率的にすることに注力してきた。
本研究では,シミュレータをより効率的にし,トレーニングデータを従来よりもずっとアクセスしやすくすることに注力する。
手術ロボット学習のためのオープンソースの高性能プラットフォームであるオペレーショナルGymを導入し,物理シミュレーションと強化学習の両方をGPU上で直接行う。
従来の外科的学習プラットフォームと比較して,100~5000倍の速さを示した。
コードはhttps://github.com/SamuelSchmidgall/SurgicalGym.comで公開されている。
関連論文リスト
- Simulation-Aided Policy Tuning for Black-Box Robot Learning [47.83474891747279]
本稿では,データ効率の向上に着目した新しいブラックボックスポリシー探索アルゴリズムを提案する。
このアルゴリズムはロボット上で直接学習し、シミュレーションを追加の情報源として扱い、学習プロセスを高速化する。
ロボットマニピュレータ上でのタスク学習の高速化と成功を,不完全なシミュレータの助けを借りて示す。
論文 参考訳(メタデータ) (2024-11-21T15:52:23Z) - Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Toward a Surgeon-in-the-Loop Ophthalmic Robotic Apprentice using Reinforcement and Imitation Learning [18.72371138886818]
眼内白内障手術における外科医中心の自律エージェントに対する画像誘導アプローチを提案する。
外科医の行動と嗜好をトレーニングプロセスに統合することにより、ロボットは個々の外科医のユニークなテクニックを暗黙的に学習し、適応することができる。
論文 参考訳(メタデータ) (2023-11-29T15:00:06Z) - Autonomous Soft Tissue Retraction Using Demonstration-Guided
Reinforcement Learning [6.80186731352488]
既存の外科的課題学習は、主に剛体相互作用に関係している。
より高度な手術ロボットへの進歩は、軟体手術を必要とする。
この研究は、硬組織と軟組織の両方の相互作用を管理することができる外科用ロボットの開発と改良に関する将来の研究の基礎を築いた。
論文 参考訳(メタデータ) (2023-09-02T06:13:58Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Human-in-the-loop Embodied Intelligence with Interactive Simulation
Environment for Surgical Robot Learning [19.390115282150337]
我々は,手術ロボット学習のための対話型シミュレーションプラットフォームを用いて,人体とループのインボディードインテリジェンスについて検討した。
具体的には、以前リリースしたSurRoLシミュレータに基づいて、いくつかの新機能を備えたプラットフォームを構築します。
本稿では, シミュレーション環境の改善を, 設計した新機能で紹介し, 具体的インテリジェンスに人的要因を組み込むことの有効性を検証した。
論文 参考訳(メタデータ) (2023-01-01T18:05:25Z) - Deep Reinforcement Learning Based Semi-Autonomous Control for Robotic
Surgery [13.940778824773414]
ロボット手術のための深層強化学習に基づく半自律制御フレームワークを提案する。
このフレームワークは完了時間を19.1%削減し、走行距離を58.7%短縮することができる。
論文 参考訳(メタデータ) (2022-04-11T22:59:33Z) - SurRoL: An Open-source Reinforcement Learning Centered and dVRK
Compatible Platform for Surgical Robot Learning [78.76052604441519]
SurRoLは、ダ・ヴィンチ・リサーチキット(dVRK)と互換性のある外科ロボット学習のためのRL中心のシミュレーションプラットフォームである。
プラットフォームには10の学習ベースの外科的タスクが構築されており、実際の自律的な外科的実行に共通している。
シミュレーションにおいてRLアルゴリズムを用いてSurRoLの評価を行い、奥行き分析を行い、実際のdVRKにトレーニングされたポリシーをデプロイし、実世界でより優れた転送性を実現することを示す。
論文 参考訳(メタデータ) (2021-08-30T07:43:47Z) - Recurrent and Spiking Modeling of Sparse Surgical Kinematics [0.8458020117487898]
ますます多くの研究が、手術ロボットが捉えたビデオやキネマティックなデータを機械学習で分析している。
本研究では,同様のスキルレベルの外科医を予測するために,キネマティックデータのみを用いることの可能性を検討する。
本報告では, 運動特性のみに基づいて, シミュレーションエクササイズにおいて, ほぼ完全スコアの手術者を特定することが可能である。
論文 参考訳(メタデータ) (2020-05-12T15:41:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。