論文の概要: VA-Adapter: Adapting Ultrasound Foundation Model to Echocardiography Probe Guidance
- arxiv url: http://arxiv.org/abs/2510.06809v1
- Date: Wed, 08 Oct 2025 09:38:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.391247
- Title: VA-Adapter: Adapting Ultrasound Foundation Model to Echocardiography Probe Guidance
- Title(参考訳): VA-Adapter:超音波基礎モデルによる心エコー検査
- Authors: Teng Wang, Haojun Jiang, Yuxuan Wang, Zhenguo Sun, Shiji Song, Gao Huang,
- Abstract要約: 我々は、膨大なデータセットから基礎モデルで学習した医療知識をプローブガイダンスタスクに適用する。
我々は,基礎モデルのイメージエンコーダが視覚アクションシーケンスをエンコードできるように,パラメータ効率のよいビジュアル・アクション・アダプタ (VA-Adapter) を巧みに設計する。
VA-Adapterは、コンパクトな設計でシーケンシャル推論機能を組み込むことで、事前訓練された超音波基礎モデルにより、精密なプローブ調整戦略を学習することができる。
- 参考スコア(独自算出の注目度): 57.43511837589102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Echocardiography is a critical tool for detecting heart diseases. Recently, ultrasound foundation models have demonstrated remarkable capabilities in cardiac ultrasound image analysis. However, obtaining high-quality ultrasound images is a prerequisite for accurate diagnosis. Due to the exceptionally high operational difficulty of cardiac ultrasound, there is a shortage of highly skilled personnel, which hinders patients from receiving timely examination services. In this paper, we aim to adapt the medical knowledge learned by foundation models from vast datasets to the probe guidance task, which is designed to provide real-time operational recommendations for junior sonographers to acquire high-quality ultrasound images. Moreover, inspired by the practice where experts optimize action decisions based on past explorations, we meticulously design a parameter-efficient Vision-Action Adapter (VA-Adapter) to enable foundation model's image encoder to encode vision-action sequences, thereby enhancing guidance performance. With built-in sequential reasoning capabilities in a compact design, the VA-Adapter enables a pre-trained ultrasound foundation model to learn precise probe adjustment strategies by fine-tuning only a small subset of parameters. Extensive experiments demonstrate that the VA-Adapter can surpass strong probe guidance models. Our code will be released after acceptance.
- Abstract(参考訳): 心エコー検査は心臓疾患を診断するための重要なツールである。
近年,超音波基礎モデルは心エコー画像解析において顕著な機能を示した。
しかし,高画質超音波画像の取得は正確な診断の必要条件である。
心臓超音波の極めて高い手術困難のため、高度に熟練した人員が不足しており、患者がタイムリーな検査を受けるのを妨げている。
本稿では,基礎モデルから得られた医療知識を大規模データセットから探索誘導タスクに適応させることを目標とし,ジュニアソノグラフィーが高品質な超音波画像を取得するためのリアルタイムな操作勧告を提供する。
さらに,過去の探索に基づいて行動決定を最適化する手法に触発されて,基礎モデルのイメージエンコーダを符号化し,誘導性能を向上させるために,パラメータ効率のよい視覚適応器(VA-Adapter)を慎重に設計する。
VA-Adapterは、コンパクトな設計にシーケンシャル推論機能を組み込むことで、訓練済みの超音波基礎モデルにより、パラメータの小さなサブセットだけを微調整することで、精密なプローブ調整戦略を学習することができる。
大規模な実験により、VA-Adapterは強力なプローブ誘導モデルを超えることができることが示された。
私たちのコードは受け入れられてから解放されます。
関連論文リスト
- EchoVLM: Dynamic Mixture-of-Experts Vision-Language Model for Universal Ultrasound Intelligence [9.731550105507457]
本稿では,超音波医療画像に特化して設計された視覚言語モデルであるEchoVLMを提案する。
このモデルは、7つの解剖学的領域にまたがるデータに基づいてトレーニングされたMixture of Experts (MoE)アーキテクチャを採用している。
EchoVLMは、それぞれBLEU-1スコアとROUGE-1スコアで10.15点と4.77点を大きく改善した。
論文 参考訳(メタデータ) (2025-09-18T14:07:53Z) - EchoWorld: Learning Motion-Aware World Models for Echocardiography Probe Guidance [79.66329903007869]
本稿では,プローブ誘導のためのモーションアウェアな世界モデリングフレームワークであるEchoWorldを紹介する。
解剖学的な知識と運動によって引き起こされる視覚力学を符号化する。
200以上の定期的なスキャンから100万枚以上の超音波画像で訓練されている。
論文 参考訳(メタデータ) (2025-04-17T16:19:05Z) - Decision-based AI Visual Navigation for Cardiac Ultrasounds [0.7825791212345073]
本稿では、心臓の下大静脈(IVC)を特定するための意思決定モデルに基づいて、新しいAIナビゲーションシステムを示す。
基礎となるモデルは、学習した特徴表現を利用して、ITVの空間的位置をリアルタイムでアノテートする新しいローカライゼーションアルゴリズムを統合する。
我々のモデルは、従来の高品質の病院用超音波ビデオに強いローカライゼーション性能を示し、より安価なButterfly iQハンドヘルド超音波マシンの低品質超音波ビデオに印象的なゼロショット性能を示す。
論文 参考訳(メタデータ) (2025-04-16T23:54:46Z) - Sequence-aware Pre-training for Echocardiography Probe Movement Guidance [71.79421124144145]
本稿では,高品質な標準平面画像取得のためのプローブポーズ調整によるロボットシステムや初心者の誘導に応用可能な,新しいプローブ移動誘導アルゴリズムを提案する。
本研究では, マスクアウト画像の特徴とプローブ動作をスキャンシーケンスで予測することにより, パーソナライズされた3次元心構造の特徴を学習する。
論文 参考訳(メタデータ) (2024-08-27T12:55:54Z) - Goal-conditioned reinforcement learning for ultrasound navigation guidance [4.648318344224063]
目標条件強化学習(G)としてのコントラスト学習に基づく新しい超音波ナビゲーション支援手法を提案する。
我々は,新しいコントラスト的患者法 (CPB) とデータ拡張型コントラスト的損失を用いて,従来の枠組みを拡張した。
提案法は, 789人の大容量データセットを用いて開発され, 平均誤差は6.56mm, 9.36°であった。
論文 参考訳(メタデータ) (2024-05-02T16:01:58Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Cardiac ultrasound simulation for autonomous ultrasound navigation [4.036497185262817]
本稿では,他のモーダルや任意の位置から大量の超音波画像を生成する手法を提案する。
本稿では,他のモダリティからのセグメンテーション,最適化されたデータ表現,GPUによるモンテカルロ経路のトレースを用いた新しいシミュレーションパイプラインを提案する。
提案手法により,患者固有の超音波画像の高速かつ正確な生成が可能となり,ナビゲーション関連タスクのためのトレーニングネットワークのユーザビリティが実証された。
論文 参考訳(メタデータ) (2024-02-09T15:14:48Z) - LOTUS: Learning to Optimize Task-based US representations [39.81131738128329]
超音波画像における臓器の解剖学的セグメンテーションは多くの臨床応用に不可欠である。
既存のディープニューラルネットワークは、臨床的に許容できるパフォーマンスを達成するために、トレーニングのために大量のラベル付きデータを必要とする。
本稿では,タスクベース超音速画像表現を最適化する学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T16:29:39Z) - Deep Learning for Ultrasound Beamforming [120.12255978513912]
受信した超音波エコーを空間画像領域にマッピングするビームフォーミングは、超音波画像形成チェーンの心臓に位置する。
現代の超音波イメージングは、強力なデジタル受信チャネル処理の革新に大きく依存している。
ディープラーニング手法は、デジタルビームフォーミングパイプラインにおいて魅力的な役割を果たす。
論文 参考訳(メタデータ) (2021-09-23T15:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。