論文の概要: Long-Short Term Agents for Pure-Vision Bronchoscopy Robotic Autonomy
- arxiv url: http://arxiv.org/abs/2603.07909v1
- Date: Mon, 09 Mar 2026 03:09:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.387966
- Title: Long-Short Term Agents for Pure-Vision Bronchoscopy Robotic Autonomy
- Title(参考訳): パービジョン気管支鏡による自律神経障害の長期治療薬
- Authors: Junyang Wu, Mingyi Luo, Fangfang Xie, Minghui Zhang, Hanxiao Zhang, Chunxi Zhang, Junhao Wang, Jiayuan Sun, Yun Gu, Guang-Zhong Yang,
- Abstract要約: 既存のナビゲーションプラットフォームは、電磁的なトラッキングや形状検出といった外部のローカライゼーション技術に依存している。
我々は,術前CTから得られた仮想目標とライブ内視鏡映像を用いて,長時間の気管支鏡視下ナビゲーションを行う視覚のみの自律フレームワークを提案する。
- 参考スコア(独自算出の注目度): 24.222298208225155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate intraoperative navigation is essential for robot-assisted endoluminal intervention, but remains difficult because of limited endoscopic field of view and dynamic artifacts. Existing navigation platforms often rely on external localization technologies, such as electromagnetic tracking or shape sensing, which increase hardware complexity and remain vulnerable to intraoperative anatomical mismatch. We present a vision-only autonomy framework that performs long-horizon bronchoscopic navigation using preoperative CT-derived virtual targets and live endoscopic video, without external tracking during navigation. The framework uses hierarchical long-short agents: a short-term reactive agent for continuous low-latency motion control, and a long-term strategic agent for decision support at anatomically ambiguous points. When their recommendations conflict, a world-model critic predicts future visual states for candidate actions and selects the action whose predicted state best matches the target view. We evaluated the system in a high-fidelity airway phantom, three ex vivo porcine lungs, and a live porcine model. The system reached all planned segmental targets in the phantom, maintained 80\% success to the eighth generation ex vivo, and achieved in vivo navigation performance comparable to the expert bronchoscopist. These results support the preclinical feasibility of sensor-free autonomous bronchoscopic navigation.
- Abstract(参考訳): 正確な術中ナビゲーションは,ロボット支援による内科的介入には不可欠であるが,内視鏡的視野や動的アーティファクトが限られているため,依然として困難である。
既存のナビゲーションプラットフォームは、しばしば電磁的なトラッキングや形状検出のような外部のローカライゼーション技術に依存しており、ハードウェアの複雑さを増大させ、術中の解剖学的ミスマッチに弱いままである。
本稿では,術前CTから得られた仮想目標とライブ内視鏡映像を用いて,ナビゲーション中の外部追跡を伴わずに,長時間の気管支鏡視下ナビゲーションを行う視覚のみの自律フレームワークを提案する。
このフレームワークは、連続的な低遅延動作制御のための短期的反応剤と、解剖学的に曖昧な点における意思決定支援のための長期的戦略剤である階層的ロングショートエージェントを使用する。
勧告が対立すると、世界モデル評論家は将来の視覚状態を予測し、予測された状態がターゲットの視点に最も合うアクションを選択する。
高忠実度気道ファントム,3つの外生ブタ肺,および生きたブタモデルを用いて,本システムの評価を行った。
このシステムはファントムで計画された全てのセグメント目標に到達し、80 %の成功を第8 世代外生に維持し、専門家気管支鏡検査に匹敵する生体内ナビゲーション性能を達成した。
これらの結果は,センサレス自律気管支鏡ナビゲーションの実現可能性を支持する。
関連論文リスト
- Toward AI Autonomous Navigation for Mechanical Thrombectomy using Hierarchical Modular Multi-agent Reinforcement Learning (HM-MARL) [57.65363326406228]
In vitroにおける自律型2デバイスナビゲーションのための階層型モジュールマルチエージェント強化学習フレームワークを提案する。
HM-MARLは、大腿動脈から内頸動脈(ICA)へのガイドカテーテルとガイドワイヤを自律的にナビゲートするために開発された。
モジュール型マルチエージェントアプローチは、複雑なナビゲーションタスクを特別なサブタスクに分解するために用いられ、それぞれがソフトアクター・クライブRLを用いて訓練された。
In vitroでは、両方のHM-MARLモデルが大腿動脈から右総頸動脈への100%の治験に成功し、右ICAへの80%は失敗に終わった。
論文 参考訳(メタデータ) (2026-02-20T23:50:35Z) - DINO-CVA: A Multimodal Goal-Conditioned Vision-to-Action Model for Autonomous Catheter Navigation [0.33727511459109777]
本研究は,マルチモーダルな目標条件行動クローニングフレームワークであるDINO-CVAの導入により,自律カテーテルナビゲーションへ移行する。
提案モデルでは,視覚観測とジョイスティックのキネマティクスを統合埋め込み空間に融合し,視覚とキネマティクスの両方を意識したポリシーを実現する。
その結果, DINO-CVAは動作予測の精度が高く, キネマティクスのみのベースラインの性能と一致していることがわかった。
論文 参考訳(メタデータ) (2025-10-19T22:59:32Z) - AR Surgical Navigation with Surface Tracing: Comparing In-Situ Visualization with Tool-Tracking Guidance for Neurosurgical Applications [0.0]
本研究では,AR誘導を利用して解剖学的目標を登録し,リアルタイムな計器ナビゲーションを行う新しい手法を提案する。
新規な表面追跡法により標的位置を患者に登録し、リアルタイム赤外線ツールトラッキングを用いてカテーテル配置を支援する。
論文 参考訳(メタデータ) (2025-08-14T11:46:30Z) - EchoWorld: Learning Motion-Aware World Models for Echocardiography Probe Guidance [79.66329903007869]
本稿では,プローブ誘導のためのモーションアウェアな世界モデリングフレームワークであるEchoWorldを紹介する。
解剖学的な知識と運動によって引き起こされる視覚力学を符号化する。
200以上の定期的なスキャンから100万枚以上の超音波画像で訓練されている。
論文 参考訳(メタデータ) (2025-04-17T16:19:05Z) - Intelligent Robotic Sonographer: Mutual Information-based Disentangled
Reward Learning from Few Demonstrations [42.731081399649916]
この研究は、インテリジェントなロボットソノグラフィーによって、自律的に標的解剖を発見」し、専門家から学ぶことによって、米国のプローブを関連する2D平面にナビゲートすることを提案する。
専門家による基礎となる高レベルの生理的知識は神経報酬関数によって推測される。
提案した高度なフレームワークは、生き生きとしたヒトの頸動脈データだけでなく、さまざまな幻影や見えない幻影を強く扱うことができる。
論文 参考訳(メタデータ) (2023-07-07T16:30:50Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Towards Autonomous Atlas-based Ultrasound Acquisitions in Presence of
Articulated Motion [48.52403516006036]
本稿では、自律型ロボットUS手足のスキャンを可能にする視覚ベースのアプローチを提案する。
この目的のために、アノテートされた血管構造を有するヒト腕のアトラスMRIテンプレートを使用して、軌跡を生成する。
いずれの場合も、このシステムはボランティアの手足で計画された血管構造を取得することができる。
論文 参考訳(メタデータ) (2022-08-10T15:39:20Z) - Autonomous Intraluminal Navigation of a Soft Robot using
Deep-Learning-based Visual Servoing [13.268863900187025]
そこで本研究では,3Dプリント型内視鏡ソフトロボットによる光内ナビゲーションのためのシナジーソリューションを提案する。
畳み込みニューラルネットワーク(CNN)に基づくビジュアルサーボは、自律的なナビゲーションタスクを達成するために使用される。
提案するロボットは、異なる経路構成の解剖学的ファントムで検証される。
論文 参考訳(メタデータ) (2022-07-01T13:17:45Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。