論文の概要: Contact-Aided Navigation of Flexible Robotic Endoscope Using Deep Reinforcement Learning in Dynamic Stomach
- arxiv url: http://arxiv.org/abs/2509.00319v1
- Date: Sat, 30 Aug 2025 02:42:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.175194
- Title: Contact-Aided Navigation of Flexible Robotic Endoscope Using Deep Reinforcement Learning in Dynamic Stomach
- Title(参考訳): 動的胃における深部強化学習を用いたフレキシブルロボット内視鏡の接触支援ナビゲーション
- Authors: Chi Kit Ng, Huxin Gao, Tian-Ao Ren, Jiewen Lai, Hongliang Ren,
- Abstract要約: 消化器外科的診断と治療には, フレキシブル・ロボティクス・内視鏡(FRE)を経る必要がある。
我々は,FREに対する深部強化学習(DRL)に基づく接触支援ナビゲーション(CAN)戦略を導入し,接触力フィードバックを活用して動作安定性とナビゲーション精度を向上させる。
静的および動的胃環境では,CANは平均1.6mmの誤差で100%成功率を達成し,外乱が強い未確認シナリオに対して85%の成功率を維持した。
- 参考スコア(独自算出の注目度): 7.3292601941823206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Navigating a flexible robotic endoscope (FRE) through the gastrointestinal tract is critical for surgical diagnosis and treatment. However, navigation in the dynamic stomach is particularly challenging because the FRE must learn to effectively use contact with the deformable stomach walls to reach target locations. To address this, we introduce a deep reinforcement learning (DRL) based Contact-Aided Navigation (CAN) strategy for FREs, leveraging contact force feedback to enhance motion stability and navigation precision. The training environment is established using a physics-based finite element method (FEM) simulation of a deformable stomach. Trained with the Proximal Policy Optimization (PPO) algorithm, our approach achieves high navigation success rates (within 3 mm error between the FRE's end-effector and target) and significantly outperforms baseline policies. In both static and dynamic stomach environments, the CAN agent achieved a 100% success rate with 1.6 mm average error, and it maintained an 85% success rate in challenging unseen scenarios with stronger external disturbances. These results validate that the DRL-based CAN strategy substantially enhances FRE navigation performance over prior methods.
- Abstract(参考訳): 消化器外科的診断と治療には, フレキシブル・ロボティクス・内視鏡(FRE)を経る必要がある。
しかし、FREは変形可能な胃壁と効果的に接触して目標地点に到達することを学ばなければならないため、動的な胃内のナビゲーションは特に困難である。
そこで我々は,FREに対する深層強化学習(DRL)に基づく接触支援ナビゲーション(CAN)戦略を導入し,接触力フィードバックを活用して動作安定性とナビゲーション精度を向上させる。
変形性胃の物理に基づく有限要素法(FEM)シミュレーションを用いてトレーニング環境を構築した。
提案手法はPPOアルゴリズムを用いて,FREのエンドエフェクタとターゲットの3ミリ誤差を伴って,高いナビゲーション成功率を実現し,ベースラインポリシーを著しく上回っている。
静的および動的胃環境では,CANは平均1.6mmの誤差で100%成功率を達成し,外乱が強い未確認シナリオに対して85%の成功率を維持した。
これらの結果から,DRLに基づくCAN戦略がFREナビゲーション性能を大幅に向上することが確認された。
関連論文リスト
- Toward AI Autonomous Navigation for Mechanical Thrombectomy using Hierarchical Modular Multi-agent Reinforcement Learning (HM-MARL) [57.65363326406228]
In vitroにおける自律型2デバイスナビゲーションのための階層型モジュールマルチエージェント強化学習フレームワークを提案する。
HM-MARLは、大腿動脈から内頸動脈(ICA)へのガイドカテーテルとガイドワイヤを自律的にナビゲートするために開発された。
モジュール型マルチエージェントアプローチは、複雑なナビゲーションタスクを特別なサブタスクに分解するために用いられ、それぞれがソフトアクター・クライブRLを用いて訓練された。
In vitroでは、両方のHM-MARLモデルが大腿動脈から右総頸動脈への100%の治験に成功し、右ICAへの80%は失敗に終わった。
論文 参考訳(メタデータ) (2026-02-20T23:50:35Z) - Digital Twin Supervised Reinforcement Learning Framework for Autonomous Underwater Navigation [0.0]
本稿では,科学実験に広く利用されているオープンプラットフォームであるBlueROV2の事例を通して,課題を考察する。
本稿では,PPOアルゴリズムに基づく深層強化学習手法を提案する。
以上の結果から, PPO政策は高度に乱雑な環境でのDWAを一貫して上回っていることが示唆された。
論文 参考訳(メタデータ) (2025-12-11T18:52:42Z) - Human-in-the-loop Online Rejection Sampling for Robotic Manipulation [55.99788088622936]
Hi-ORSは、オンライン微調整中に負の報酬を得たサンプルをフィルタリングすることで、値推定を安定化する。
Hi-ORSは、わずか1.5時間でコンタクトリッチな操作をマスターするためのpiベースのポリシーを微調整する。
論文 参考訳(メタデータ) (2025-10-30T11:53:08Z) - Deep Learning Optimization of Two-State Pinching Antennas Systems [48.70043547158868]
ピンチアンテナ(PA)は、二元活性化状態を通して電磁波の伝搬を動的に制御することができる。
本研究では,ユーザ端末での通信速度を最大化することを目的として,定位PAのサブセットを最適に選択して導波路で活性化する問題について検討する。
論文 参考訳(メタデータ) (2025-07-08T17:55:54Z) - Safe Navigation for Robotic Digestive Endoscopy via Human Intervention-based Reinforcement Learning [5.520042381826271]
既存の強化学習ナビゲーションアルゴリズムは、しばしば潜在的に危険な衝突を引き起こす。
RDEの安全性を高めるために専門家の知識を取り入れたHI-PPOと呼ばれるHuman Intervention(HI)ベースのプロキシポリシー最適化フレームワークを提案する。
その結果、HI-PPO は平均 ATE (8.02 textmm) とセキュリティスコア (0.862) を達成し、人間の専門家に匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-09-24T03:01:30Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Deep Reinforcement Learning with Enhanced PPO for Safe Mobile Robot Navigation [0.6554326244334868]
本研究では,複雑な環境下での自律走行のための移動ロボットの訓練における深層強化学習の適用について検討する。
このロボットは、LiDARセンサデータとディープニューラルネットワークを用いて、障害物を回避しつつ、特定の目標に向かって誘導する制御信号を生成する。
論文 参考訳(メタデータ) (2024-05-25T15:08:36Z) - Navigation of micro-robot swarms for targeted delivery using
reinforcement learning [0.0]
Inforcement Learning (RL) アルゴリズムをPPO(Proximal Policy Optimization) とRPO(Robust Policy Optimization) を用いて,4,9,16マイクロスウィマーの群を探索する。
PPOとRPOの両方のパフォーマンスを、限られた状態情報シナリオで調べ、また、ランダムな目標位置とサイズに対するロバスト性をテストする。
論文 参考訳(メタデータ) (2023-06-30T12:17:39Z) - Confidence-Controlled Exploration: Efficient Sparse-Reward Policy Learning for Robot Navigation [72.24964965882783]
強化学習(RL)はロボットナビゲーションにおいて有望なアプローチであり、ロボットは試行錯誤を通じて学習することができる。
現実世界のロボットタスクは、しばしばまばらな報酬に悩まされ、非効率な探索と準最適政策に繋がる。
本稿では,RLに基づくロボットナビゲーションにおいて,報酬関数を変更せずにサンプル効率を向上させる新しい手法であるConfidence-Controlled Exploration (CCE)を紹介する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - How to Control Hydrodynamic Force on Fluidic Pinball via Deep
Reinforcement Learning [3.1635451288803638]
流体ピンボールの流体力を制御するためのDRLに基づくリアルタイムフィードバック戦略を提案する。
報酬関数を適切に設計し、歴史的観測を符号化することにより、DRLに基づく制御が合理的かつ有効な制御決定を行うことを示した。
これらの結果の1つは、力追跡プロセスの意思決定と物理的メカニズムに基づいて光を放つことができる機械学習モデルによって分析された。
論文 参考訳(メタデータ) (2023-04-23T03:39:50Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z) - Learning Compliance Adaptation in Contact-Rich Manipulation [81.40695846555955]
本稿では,コンタクトリッチタスクに必要な力プロファイルの予測モデルを学習するための新しいアプローチを提案する。
このアプローチは、双方向Gated Recurrent Units (Bi-GRU) に基づく異常検出と適応力/インピーダンス制御を組み合わせたものである。
論文 参考訳(メタデータ) (2020-05-01T05:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。