論文の概要: Deep reinforcement learning for guidewire navigation in coronary artery
phantom
- arxiv url: http://arxiv.org/abs/2110.01840v1
- Date: Tue, 5 Oct 2021 06:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 14:02:14.591614
- Title: Deep reinforcement learning for guidewire navigation in coronary artery
phantom
- Title(参考訳): 冠動脈ファントムにおけるガイドワイヤナビゲーションの深部強化学習
- Authors: Jihoon Kweon, Kyunghwan Kim, Chaehyuk Lee, Hwi Kwon, Jinwoo Park,
Kyoseok Song, Young In Kim, Jeeone Park, Inwook Back, Jae-Hyung Roh, Youngjin
Moon, Jaesoon Choi, and Young-Hak Kim
- Abstract要約: 本稿では,自律ガイドワイヤナビゲーションのための深層強化学習フレームワークについて紹介する。
Rainbowを使用することで、人間のデモンストレーションを使ってトレーニングをいかに加速するかを判断する、セグメントワイズ学習アプローチが適用される。
このフレームワークは、ロボットによる介入の自動化における新たな方向性を開き、機械的疲労を伴う物理的空間におけるRLのガイダンスを提供する。
- 参考スコア(独自算出の注目度): 1.677057841328378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In percutaneous intervention for treatment of coronary plaques, guidewire
navigation is a primary procedure for stent delivery. Steering a flexible
guidewire within coronary arteries requires considerable training, and the
non-linearity between the control operation and the movement of the guidewire
makes precise manipulation difficult. Here, we introduce a deep reinforcement
learning(RL) framework for autonomous guidewire navigation in a robot-assisted
coronary intervention. Using Rainbow, a segment-wise learning approach is
applied to determine how best to accelerate training using human demonstrations
with deep Q-learning from demonstrations (DQfD), transfer learning, and weight
initialization. `State' for RL is customized as a focus window near the
guidewire tip, and subgoals are placed to mitigate a sparse reward problem. The
RL agent improves performance, eventually enabling the guidewire to reach all
valid targets in `stable' phase. Our framework opens anew direction in the
automation of robot-assisted intervention, providing guidance on RL in physical
spaces involving mechanical fatigue.
- Abstract(参考訳): 冠動脈プラークに対する経皮的治療では、ガイドワイヤーナビゲーションがステントデリバリーの主要な手順である。
冠動脈内の柔軟なガイドワイヤを操るにはかなりの訓練が必要であり、制御操作とガイドワイヤの動きの非線形性は正確な操作を困難にする。
本稿では,ロボットによる冠動脈インターベンションにおける自律ガイドワイヤナビゲーションのための深部強化学習(RL)フレームワークを提案する。
Rainbowを用いて、DQfD(Deep Q-learning from Demos)、転送学習(Transfer Learning)、および重み初期化(weight initialization)を用いて、人間の実演をいかに加速するかを決定する。
RLの「状態」はガイドワイヤ先端付近のフォーカスウィンドウとしてカスタマイズされ、スパース報酬問題を緩和するためにサブゴールが置かれる。
RLエージェントはパフォーマンスを改善し、最終的にガイドワイヤが `stable' フェーズで有効なすべてのターゲットに到達できるようにする。
機械的疲労を伴う物理的空間において,ロボットによる介入を自動化するための新たな方向性を提示する。
関連論文リスト
- Demystifying the Physics of Deep Reinforcement Learning-Based Autonomous Vehicle Decision-Making [6.243971093896272]
本稿では,ベースラインモデルとしてポリシー最適化に基づくDRLアルゴリズムを用い,オープンソースのAVシミュレーション環境にマルチヘッドアテンションフレームワークを付加する。
第1頭部の重みは隣接する車両の位置を符号化し、第2頭部は先頭車両のみに焦点を当てている。
論文 参考訳(メタデータ) (2024-03-18T02:59:13Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - PathRL: An End-to-End Path Generation Method for Collision Avoidance via
Deep Reinforcement Learning [16.397594417992483]
本稿では,ロボットのナビゲーション経路を生成するためのポリシーをトレーニングする新しいDRL手法であるPathRLを提案する。
実験では,他のDRLナビゲーション法と比較して,PathRLは良好な成功率を示し,角度可変性を低下させる。
論文 参考訳(メタデータ) (2023-10-20T05:55:13Z) - End-to-End Reinforcement Learning for Torque Based Variable Height
Hopping [5.34772724436823]
足の移動は自然または非構造地形を扱うのに最も適しており、多用途であることは間違いない。
本稿では,ジャンプ位相を暗黙的に検出するエンド・ツー・エンドのRL型トルクコントローラを提案する。
また、学習した制御器がリッチな動的タスクに接触できるように、シミュレーション手法を拡張し、ロボットへの展開を成功させる。
論文 参考訳(メタデータ) (2023-07-31T13:51:29Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Feedback Linearization of Car Dynamics for Racing via Reinforcement
Learning [0.0]
我々は、自動走行する車の制御プロセスを簡素化するために、リニアライゼーションコントローラを学ぼうとしている。
ソフトアクター批判的手法は、手動設計の線形化制御器の誤差を効果的に補正するデカップリング行列とドリフトベクトルを学習するために用いられる。
そこで我々は、線形化制御器の出力をレース環境に必要な入力に変換するために教師付き学習を用いてトレーニングされたニューラルネットワークであるフィードバック線形化法の拡張を提案する。
論文 参考訳(メタデータ) (2021-10-20T09:11:18Z) - Personalized Rehabilitation Robotics based on Online Learning Control [62.6606062732021]
本稿では,各ユーザに対して実行時の制御力をパーソナライズ可能な,新しいオンライン学習制御アーキテクチャを提案する。
提案手法を,学習コントローラがパーソナライズされた制御を提供するとともに,安全な相互作用力も得られる実験ユーザスタディで評価した。
論文 参考訳(メタデータ) (2021-10-01T15:28:44Z) - Adversarial Reinforced Instruction Attacker for Robust Vision-Language
Navigation [145.84123197129298]
自然言語に基づくナビゲーションタスクでは,言語指導が重要な役割を担っている。
より堅牢なナビゲータを訓練し、長い指導から重要な要素を動的に抽出する。
具体的には,航法士が間違った目標に移動することを誤認することを学習する動的強化命令攻撃装置(DR-Attacker)を提案する。
論文 参考訳(メタデータ) (2021-07-23T14:11:31Z) - An A* Curriculum Approach to Reinforcement Learning for RGBD Indoor
Robot Navigation [6.660458629649825]
最近リリースされたhabitatのようなフォトリアリスティックシミュレータは、知覚から直接制御アクションを出力するネットワークのトレーニングを可能にする。
本稿では,知覚の訓練とニューラルネットの制御を分離し,経路の複雑さを徐々に増すことにより,この問題を克服しようとする。
論文 参考訳(メタデータ) (2021-01-05T20:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。