論文の概要: Autonomous navigation of catheters and guidewires in mechanical thrombectomy using inverse reinforcement learning
- arxiv url: http://arxiv.org/abs/2406.12499v1
- Date: Tue, 18 Jun 2024 11:00:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 19:17:37.219244
- Title: Autonomous navigation of catheters and guidewires in mechanical thrombectomy using inverse reinforcement learning
- Title(参考訳): 逆補強学習を用いた機械的血栓摘出術におけるカテーテルとガイドワイヤの自律ナビゲーション
- Authors: Harry Robertshaw, Lennart Karstensen, Benjamin Jackson, Alejandro Granados, Thomas C. Booth,
- Abstract要約: カテーテルとガイドワイヤの自律ナビゲーションは、血管内手術の安全性と効果を高め、手術時間と手術者の放射線被曝を減少させる。
本研究では,RTL (Inverse RL) を用いたMT血管内自律ナビゲーションの実現可能性について検討した。
- 参考スコア(独自算出の注目度): 39.70065117918227
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Autonomous navigation of catheters and guidewires can enhance endovascular surgery safety and efficacy, reducing procedure times and operator radiation exposure. Integrating tele-operated robotics could widen access to time-sensitive emergency procedures like mechanical thrombectomy (MT). Reinforcement learning (RL) shows potential in endovascular navigation, yet its application encounters challenges without a reward signal. This study explores the viability of autonomous navigation in MT vasculature using inverse RL (IRL) to leverage expert demonstrations. Methods: This study established a simulation-based training and evaluation environment for MT navigation. We used IRL to infer reward functions from expert behaviour when navigating a guidewire and catheter. We utilized soft actor-critic to train models with various reward functions and compared their performance in silico. Results: We demonstrated feasibility of navigation using IRL. When evaluating single versus dual device (i.e. guidewire versus catheter and guidewire) tracking, both methods achieved high success rates of 95% and 96%, respectively. Dual-tracking, however, utilized both devices mimicking an expert. A success rate of 100% and procedure time of 22.6 s were obtained when training with a reward function obtained through reward shaping. This outperformed a dense reward function (96%, 24.9 s) and an IRL-derived reward function (48%, 59.2 s). Conclusions: We have contributed to the advancement of autonomous endovascular intervention navigation, particularly MT, by employing IRL. The results underscore the potential of using reward shaping to train models, offering a promising avenue for enhancing the accessibility and precision of MT. We envisage that future research can extend our methodology to diverse anatomical structures to enhance generalizability.
- Abstract(参考訳): 目的:カテーテルとガイドワイヤの自律ナビゲーションにより、血管内手術の安全性と効果を高め、手術時間と作業者放射線被曝を低減できる。
遠隔操作ロボットの統合は、機械式血栓摘出術(MT)のような時間に敏感な緊急処置へのアクセスを拡大する可能性がある。
強化学習 (Reinforcement Learning, RL) は血管内ナビゲーションの可能性を示唆するが, その応用は報酬信号のない課題に遭遇する。
本研究では,RTL (Inverse RL) を用いたMT血管内自律ナビゲーションの実現可能性について検討した。
方法:本研究はMTナビゲーションのためのシミュレーションベーストレーニングおよび評価環境を構築した。
我々は、ガイドワイヤーとカテーテルをナビゲートする際、専門家の行動から報酬関数を推測するためにIRLを使用した。
ソフトアクター・クリティックを用いて、様々な報酬関数を持つモデルを訓練し、シリコにおけるそれらの性能を比較した。
結果:IRLを用いたナビゲーションの実現可能性を示した。
単一デバイスとデュアルデバイス(ガイドワイヤ対カテーテルとガイドワイヤ)のトラッキングを評価する場合、どちらの手法も95%と96%の高い成功率を達成した。
しかし、デュアルトラッキングは専門家を模倣する両方のデバイスを利用した。
報酬形成により得られる報酬関数を用いたトレーニングにおいて、100%の成功率と22.6秒の手順時間を得た。
これにより、高密度の報酬関数(96%、24.9秒)とIRL由来の報酬関数(48%、59.2秒)を上回った。
結論:IRLを用いた自律型血管インターベンションナビゲーション,特にMTの進歩に寄与した。
その結果、MTのアクセシビリティと精度を高めるための有望な道として、モデルトレーニングに報酬形成を使用することの可能性を明らかにし、今後の研究は、一般化性を高めるために、我々の方法論を多種多様な解剖学的構造にまで拡張することができることを示唆している。
関連論文リスト
- A Zero-Shot Reinforcement Learning Strategy for Autonomous Guidewire
Navigation [0.0]
循環器疾患の治療にはガイドワイヤとカテーテルの複雑で困難なナビゲーションが必要である。
これは、患者と臨床医がX線に曝される長い介入につながることが多い。
深層強化学習アプローチは、このタスクを学習する上で有望であり、ロボットによる介入の間、カテーテルナビゲーションを自動化する鍵となる可能性がある。
論文 参考訳(メタデータ) (2024-03-05T08:46:54Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - survAIval: Survival Analysis with the Eyes of AI [0.6445605125467573]
本研究では,自動運転シミュレータと2人の人間ドライバーを用いて,自動運転のためのトレーニングデータを強化する新しい手法を提案する。
本研究は,これらのコーナーケースをトレーニング中に取り入れることで,テスト中のコーナーケースの認識が向上することを示す。
論文 参考訳(メタデータ) (2023-05-23T15:20:31Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Basis for Intentions: Efficient Inverse Reinforcement Learning using
Past Experience [89.30876995059168]
逆強化学習(IRL) - エージェントの報酬関数をその振る舞いを観察することから推測する。
本稿では、エージェントの報酬関数を観察することのできないIRLの問題に対処する。
論文 参考訳(メタデータ) (2022-08-09T17:29:49Z) - TRAIL: Near-Optimal Imitation Learning with Suboptimal Data [100.83688818427915]
オフラインデータセットを使用してファクタードトランジションモデルを学習するトレーニング目標を提案する。
我々の理論的分析は、学習された潜在行動空間が下流模倣学習のサンプル効率を高めることを示唆している。
実際に潜伏行動空間を学習するために、エネルギーベースの遷移モデルを学ぶアルゴリズムTRAIL(Transition-Reparametrized Actions for Imitation Learning)を提案する。
論文 参考訳(メタデータ) (2021-10-27T21:05:00Z) - Deep Reinforcement Learning for Continuous Docking Control of Autonomous
Underwater Vehicles: A Benchmarking Study [1.7403133838762446]
本研究では, 連続領域におけるAUVドッキングの課題に対する, 最先端のモデルフリー深部強化学習手法の適用について検討する。
我々は、AUVを固定ドッキングプラットフォームにドッキングするのに利用される報酬関数の詳細な定式化を提供する。
論文 参考訳(メタデータ) (2021-08-05T14:58:05Z) - Deep Reinforcement Learning with a Stage Incentive Mechanism of Dense
Reward for Robotic Trajectory Planning [3.0242753679068466]
本稿では,DRLに基づくロボットマニピュレータ軌道計画の効率化を目的とした3つの報酬関数を提案する。
より合理的な軌道で学習プロセスを高速化する姿勢報酬関数を提案する。
学習過程の安定性を向上させるために,ストライド報酬関数を提案する。
論文 参考訳(メタデータ) (2020-09-25T07:36:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。