論文の概要: DINO-CVA: A Multimodal Goal-Conditioned Vision-to-Action Model for Autonomous Catheter Navigation
- arxiv url: http://arxiv.org/abs/2510.17038v1
- Date: Sun, 19 Oct 2025 22:59:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.260774
- Title: DINO-CVA: A Multimodal Goal-Conditioned Vision-to-Action Model for Autonomous Catheter Navigation
- Title(参考訳): DINO-CVA:自律カテーテルナビゲーションのためのマルチモーダルゴール・コンディションド・ビジョン・ツー・アクションモデル
- Authors: Pedram Fekri, Majid Roshanfar, Samuel Barbeau, Seyedfarzad Famouri, Thomas Looi, Dale Podolsky, Mehrdad Zadeh, Javad Dargahi,
- Abstract要約: 本研究は,マルチモーダルな目標条件行動クローニングフレームワークであるDINO-CVAの導入により,自律カテーテルナビゲーションへ移行する。
提案モデルでは,視覚観測とジョイスティックのキネマティクスを統合埋め込み空間に融合し,視覚とキネマティクスの両方を意識したポリシーを実現する。
その結果, DINO-CVAは動作予測の精度が高く, キネマティクスのみのベースラインの性能と一致していることがわかった。
- 参考スコア(独自算出の注目度): 0.33727511459109777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cardiac catheterization remains a cornerstone of minimally invasive interventions, yet it continues to rely heavily on manual operation. Despite advances in robotic platforms, existing systems are predominantly follow-leader in nature, requiring continuous physician input and lacking intelligent autonomy. This dependency contributes to operator fatigue, more radiation exposure, and variability in procedural outcomes. This work moves towards autonomous catheter navigation by introducing DINO-CVA, a multimodal goal-conditioned behavior cloning framework. The proposed model fuses visual observations and joystick kinematics into a joint embedding space, enabling policies that are both vision-aware and kinematic-aware. Actions are predicted autoregressively from expert demonstrations, with goal conditioning guiding navigation toward specified destinations. A robotic experimental setup with a synthetic vascular phantom was designed to collect multimodal datasets and evaluate performance. Results show that DINO-CVA achieves high accuracy in predicting actions, matching the performance of a kinematics-only baseline while additionally grounding predictions in the anatomical environment. These findings establish the feasibility of multimodal, goal-conditioned architectures for catheter navigation, representing an important step toward reducing operator dependency and improving the reliability of catheterbased therapies.
- Abstract(参考訳): 心臓カテーテルは、最小限の侵襲的介入の基盤として依然として残っているが、手動手術に大きく依存している。
ロボットプラットフォームの進歩にもかかわらず、既存のシステムは本質的には後続のリーダーであり、継続的な医師の入力を必要とし、インテリジェントな自律性を欠いている。
この依存は、作業者の疲労、放射線暴露の増大、手続き的な結果の変動に寄与する。
本研究は,マルチモーダルな目標条件行動クローニングフレームワークであるDINO-CVAの導入により,自律カテーテルナビゲーションへ移行する。
提案モデルでは,視覚観測とジョイスティックのキネマティクスを統合埋め込み空間に融合し,視覚とキネマティクスの両方を意識したポリシーを実現する。
アクションは専門家によるデモンストレーションから自己回帰的に予測され、目標条件が指定された目的地へのナビゲーションを導く。
人工血管ファントムを用いたロボット実験装置は、マルチモーダルデータセットを収集し、性能を評価するように設計された。
その結果,DINO-CVAは動作予測の精度が高く,キネマティクスのみのベースラインの性能と一致し,解剖学的環境下での予測の根拠となることがわかった。
これらの知見は, カテーテルナビゲーションにおけるマルチモーダルな目標条件アーキテクチャの実現可能性を確立し, 操作者の依存性を低減し, カテーテルベースの治療の信頼性を向上させるための重要なステップである。
関連論文リスト
- Autonomous Soft Robotic Guidewire Navigation via Imitation Learning [3.1381624795986345]
血管内手術では、インターベンショニストはカテーテルと呼ばれる細いチューブを細いワイヤーで導かれ、患者の血管内の治療部位へ押し込む。
ロボットの先端を持つガイドワイヤは操作性を高めることができるが、モデリングと制御の課題を提示する。
我々は,目標条件付け,相対的な動作出力,および自動コントラスト染料注入を用いたトランスフォーマーに基づく模倣学習フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-10T15:57:09Z) - AR Surgical Navigation with Surface Tracing: Comparing In-Situ Visualization with Tool-Tracking Guidance for Neurosurgical Applications [0.0]
本研究では,AR誘導を利用して解剖学的目標を登録し,リアルタイムな計器ナビゲーションを行う新しい手法を提案する。
新規な表面追跡法により標的位置を患者に登録し、リアルタイム赤外線ツールトラッキングを用いてカテーテル配置を支援する。
論文 参考訳(メタデータ) (2025-08-14T11:46:30Z) - Guidance for Intra-cardiac Echocardiography Manipulation to Maintain Continuous Therapy Device Tip Visibility [7.208458407211938]
心内心エコー法(ICE)は電気生理学(EP)と構造心疾患(SHD)の介入において重要な役割を担っている。
治療器具先端の連続的な視認性を維持することは、手動ICEカテーテル操作に必要な頻繁な調整のため、依然として課題である。
本稿では,デバイス先端入射角とICE撮像面内の通過点を推定するAI駆動追跡モデルを提案する。
論文 参考訳(メタデータ) (2025-05-08T02:48:30Z) - AI-driven View Guidance System in Intra-cardiac Echocardiography Imaging [7.074445406436684]
心内心エコー法(ICE)は、電気生理学(EP)と構造心疾患(SHD)の介入において重要な画像モダリティである。
本稿では,人間によるループ内フィードバックを伴う連続閉ループで動作するAI駆動型ビューガイダンスシステムを提案する。
論文 参考訳(メタデータ) (2024-09-25T13:08:10Z) - Causal Graph ODE: Continuous Treatment Effect Modeling in Multi-agent
Dynamical Systems [70.84976977950075]
実世界のマルチエージェントシステムは、しばしば動的で連続的であり、エージェントは時間とともにその軌道や相互作用を共進化させ、変化させる。
本稿では,グラフニューラルネットワーク(GNN)をODE関数として,エージェント間の連続的な相互作用をキャプチャする新しいモデルを提案する。
我々のモデルの主な革新は、治療の時間依存表現を学習し、ODE関数にそれらを組み込むことで、潜在的な結果の正確な予測を可能にすることである。
論文 参考訳(メタデータ) (2024-02-29T23:07:07Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Towards Autonomous Atlas-based Ultrasound Acquisitions in Presence of
Articulated Motion [48.52403516006036]
本稿では、自律型ロボットUS手足のスキャンを可能にする視覚ベースのアプローチを提案する。
この目的のために、アノテートされた血管構造を有するヒト腕のアトラスMRIテンプレートを使用して、軌跡を生成する。
いずれの場合も、このシステムはボランティアの手足で計画された血管構造を取得することができる。
論文 参考訳(メタデータ) (2022-08-10T15:39:20Z) - ProcTHOR: Large-Scale Embodied AI Using Procedural Generation [55.485985317538194]
ProcTHORは、Embodied AI環境の手続き的生成のためのフレームワークである。
ナビゲーション、アレンジメント、アーム操作のための6つの具体化されたAIベンチマークに対して、最先端の結果を実証する。
論文 参考訳(メタデータ) (2022-06-14T17:09:35Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。