論文の概要: Contact-Aided Navigation of Flexible Robotic Endoscope Using Deep Reinforcement Learning in Dynamic Stomach
- arxiv url: http://arxiv.org/abs/2509.00319v1
- Date: Sat, 30 Aug 2025 02:42:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.175194
- Title: Contact-Aided Navigation of Flexible Robotic Endoscope Using Deep Reinforcement Learning in Dynamic Stomach
- Title(参考訳): 動的胃における深部強化学習を用いたフレキシブルロボット内視鏡の接触支援ナビゲーション
- Authors: Chi Kit Ng, Huxin Gao, Tian-Ao Ren, Jiewen Lai, Hongliang Ren,
- Abstract要約: 消化器外科的診断と治療には, フレキシブル・ロボティクス・内視鏡(FRE)を経る必要がある。
我々は,FREに対する深部強化学習(DRL)に基づく接触支援ナビゲーション(CAN)戦略を導入し,接触力フィードバックを活用して動作安定性とナビゲーション精度を向上させる。
静的および動的胃環境では,CANは平均1.6mmの誤差で100%成功率を達成し,外乱が強い未確認シナリオに対して85%の成功率を維持した。
- 参考スコア(独自算出の注目度): 7.3292601941823206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Navigating a flexible robotic endoscope (FRE) through the gastrointestinal tract is critical for surgical diagnosis and treatment. However, navigation in the dynamic stomach is particularly challenging because the FRE must learn to effectively use contact with the deformable stomach walls to reach target locations. To address this, we introduce a deep reinforcement learning (DRL) based Contact-Aided Navigation (CAN) strategy for FREs, leveraging contact force feedback to enhance motion stability and navigation precision. The training environment is established using a physics-based finite element method (FEM) simulation of a deformable stomach. Trained with the Proximal Policy Optimization (PPO) algorithm, our approach achieves high navigation success rates (within 3 mm error between the FRE's end-effector and target) and significantly outperforms baseline policies. In both static and dynamic stomach environments, the CAN agent achieved a 100% success rate with 1.6 mm average error, and it maintained an 85% success rate in challenging unseen scenarios with stronger external disturbances. These results validate that the DRL-based CAN strategy substantially enhances FRE navigation performance over prior methods.
- Abstract(参考訳): 消化器外科的診断と治療には, フレキシブル・ロボティクス・内視鏡(FRE)を経る必要がある。
しかし、FREは変形可能な胃壁と効果的に接触して目標地点に到達することを学ばなければならないため、動的な胃内のナビゲーションは特に困難である。
そこで我々は,FREに対する深層強化学習(DRL)に基づく接触支援ナビゲーション(CAN)戦略を導入し,接触力フィードバックを活用して動作安定性とナビゲーション精度を向上させる。
変形性胃の物理に基づく有限要素法(FEM)シミュレーションを用いてトレーニング環境を構築した。
提案手法はPPOアルゴリズムを用いて,FREのエンドエフェクタとターゲットの3ミリ誤差を伴って,高いナビゲーション成功率を実現し,ベースラインポリシーを著しく上回っている。
静的および動的胃環境では,CANは平均1.6mmの誤差で100%成功率を達成し,外乱が強い未確認シナリオに対して85%の成功率を維持した。
これらの結果から,DRLに基づくCAN戦略がFREナビゲーション性能を大幅に向上することが確認された。
関連論文リスト
- Deep Learning Optimization of Two-State Pinching Antennas Systems [48.70043547158868]
ピンチアンテナ(PA)は、二元活性化状態を通して電磁波の伝搬を動的に制御することができる。
本研究では,ユーザ端末での通信速度を最大化することを目的として,定位PAのサブセットを最適に選択して導波路で活性化する問題について検討する。
論文 参考訳(メタデータ) (2025-07-08T17:55:54Z) - Safe Navigation for Robotic Digestive Endoscopy via Human Intervention-based Reinforcement Learning [5.520042381826271]
既存の強化学習ナビゲーションアルゴリズムは、しばしば潜在的に危険な衝突を引き起こす。
RDEの安全性を高めるために専門家の知識を取り入れたHI-PPOと呼ばれるHuman Intervention(HI)ベースのプロキシポリシー最適化フレームワークを提案する。
その結果、HI-PPO は平均 ATE (8.02 textmm) とセキュリティスコア (0.862) を達成し、人間の専門家に匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-09-24T03:01:30Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Deep Reinforcement Learning with Enhanced PPO for Safe Mobile Robot Navigation [0.6554326244334868]
本研究では,複雑な環境下での自律走行のための移動ロボットの訓練における深層強化学習の適用について検討する。
このロボットは、LiDARセンサデータとディープニューラルネットワークを用いて、障害物を回避しつつ、特定の目標に向かって誘導する制御信号を生成する。
論文 参考訳(メタデータ) (2024-05-25T15:08:36Z) - Navigation of micro-robot swarms for targeted delivery using
reinforcement learning [0.0]
Inforcement Learning (RL) アルゴリズムをPPO(Proximal Policy Optimization) とRPO(Robust Policy Optimization) を用いて,4,9,16マイクロスウィマーの群を探索する。
PPOとRPOの両方のパフォーマンスを、限られた状態情報シナリオで調べ、また、ランダムな目標位置とサイズに対するロバスト性をテストする。
論文 参考訳(メタデータ) (2023-06-30T12:17:39Z) - Confidence-Controlled Exploration: Efficient Sparse-Reward Policy Learning for Robot Navigation [72.24964965882783]
強化学習(RL)はロボットナビゲーションにおいて有望なアプローチであり、ロボットは試行錯誤を通じて学習することができる。
現実世界のロボットタスクは、しばしばまばらな報酬に悩まされ、非効率な探索と準最適政策に繋がる。
本稿では,RLに基づくロボットナビゲーションにおいて,報酬関数を変更せずにサンプル効率を向上させる新しい手法であるConfidence-Controlled Exploration (CCE)を紹介する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z) - Learning Compliance Adaptation in Contact-Rich Manipulation [81.40695846555955]
本稿では,コンタクトリッチタスクに必要な力プロファイルの予測モデルを学習するための新しいアプローチを提案する。
このアプローチは、双方向Gated Recurrent Units (Bi-GRU) に基づく異常検出と適応力/インピーダンス制御を組み合わせたものである。
論文 参考訳(メタデータ) (2020-05-01T05:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。