論文の概要: Auto-US: An Ultrasound Video Diagnosis Agent Using Video Classification Framework and LLMs
- arxiv url: http://arxiv.org/abs/2511.07748v1
- Date: Wed, 12 Nov 2025 01:14:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.460014
- Title: Auto-US: An Ultrasound Video Diagnosis Agent Using Video Classification Framework and LLMs
- Title(参考訳): Auto-US:ビデオ分類フレームワークとLCMを用いた超音波ビデオ診断エージェント
- Authors: Yuezhe Yang, Yiyue Guo, Wenjie Cai, Qingqing Ruan, Siying Wang, Xingbo Dong, Zhe Jin, Yong Dai,
- Abstract要約: 超音波画像データと臨床診断テキストを統合するインテリジェント診断エージェントであるtextbfAuto-US を提案する。
我々は,超音波映像分類における最先端性能を実現するtextbfCTU-Net を開発し,精度86.73%に達した。
これらの結果は,実世界の超音波応用におけるAuto-USの有効性と臨床効果を示すものである。
- 参考スコア(独自算出の注目度): 13.37674307639552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-assisted ultrasound video diagnosis presents new opportunities to enhance the efficiency and accuracy of medical imaging analysis. However, existing research remains limited in terms of dataset diversity, diagnostic performance, and clinical applicability. In this study, we propose \textbf{Auto-US}, an intelligent diagnosis agent that integrates ultrasound video data with clinical diagnostic text. To support this, we constructed \textbf{CUV Dataset} of 495 ultrasound videos spanning five categories and three organs, aggregated from multiple open-access sources. We developed \textbf{CTU-Net}, which achieves state-of-the-art performance in ultrasound video classification, reaching an accuracy of 86.73\% Furthermore, by incorporating large language models, Auto-US is capable of generating clinically meaningful diagnostic suggestions. The final diagnostic scores for each case exceeded 3 out of 5 and were validated by professional clinicians. These results demonstrate the effectiveness and clinical potential of Auto-US in real-world ultrasound applications. Code and data are available at: https://github.com/Bean-Young/Auto-US.
- Abstract(参考訳): AIを用いた超音波画像診断は、医用画像解析の効率性と精度を高める新たな機会を提供する。
しかし、既存の研究は、データセットの多様性、診断性能、臨床応用性に関して制限されている。
本研究では,超音波画像データと臨床診断テキストを統合するインテリジェント診断エージェントである \textbf{Auto-US} を提案する。
そこで我々は,5つのカテゴリと3つの臓器にまたがる495個の超音波ビデオのtextbf{CUV Dataset}を構築し,複数のオープンアクセスソースから集計した。
超音波ビデオ分類における最先端性能を実現し,86.73 %の精度を達成できる「textbf{CTU-Net}」を開発した。
最終診断スコアは5例中3例を超え, 専門医が検証した。
これらの結果は,実世界の超音波応用におけるAuto-USの有効性と臨床効果を示すものである。
コードとデータは、https://github.com/Bean-Young/Auto-US.comで入手できる。
関連論文リスト
- Evolving Diagnostic Agents in a Virtual Clinical Environment [75.59389103511559]
本稿では,大規模言語モデル(LLM)を強化学習を用いた診断エージェントとして訓練するためのフレームワークを提案する。
本手法は対話型探索と結果に基づくフィードバックによって診断戦略を取得する。
DiagAgentはDeepSeek-v3やGPT-4oなど、最先端の10のLLMを著しく上回っている。
論文 参考訳(メタデータ) (2025-10-28T17:19:47Z) - Timely Clinical Diagnosis through Active Test Selection [49.091903570068155]
本稿では,現実の診断推論をよりうまくエミュレートするためのACTMED (Adaptive Clinical Test selection via Model-based Experimental Design)を提案する。
LLMは柔軟なシミュレータとして機能し、構造化されたタスク固有のトレーニングデータを必要とせずに、患者状態のもっともらしい分布を生成し、信念の更新をサポートする。
我々は、実世界のデータセット上でACTMEDを評価し、診断精度、解釈可能性、リソース使用量を改善するためにテスト選択を最適化できることを示す。
論文 参考訳(メタデータ) (2025-10-21T18:10:45Z) - EchoVLM: Dynamic Mixture-of-Experts Vision-Language Model for Universal Ultrasound Intelligence [9.731550105507457]
本稿では,超音波医療画像に特化して設計された視覚言語モデルであるEchoVLMを提案する。
このモデルは、7つの解剖学的領域にまたがるデータに基づいてトレーニングされたMixture of Experts (MoE)アーキテクチャを採用している。
EchoVLMは、それぞれBLEU-1スコアとROUGE-1スコアで10.15点と4.77点を大きく改善した。
論文 参考訳(メタデータ) (2025-09-18T14:07:53Z) - A Fully Open and Generalizable Foundation Model for Ultrasound Clinical Applications [77.3888788549565]
一般臨床用超音波基礎モデルであるEchoCareについて紹介する。
我々は、キュレートされた、一般公開された大規模なデータセットであるEchoCareData上で、自己教師付き学習を通じてEchoCareを開発した。
最小限のトレーニングで、EchoCareは10の代表的なベンチマークで最先端の比較モデルを上回っている。
論文 参考訳(メタデータ) (2025-09-15T10:05:31Z) - PRECISE-AS: Personalized Reinforcement Learning for Efficient Point-of-Care Echocardiography in Aortic Stenosis Diagnosis [6.276251898178271]
大動脈狭窄 (Aortic stenosis, AS) は、大動脈弁が狭くなり、血流が低下することによる生命維持状態である。
心エコー検査(echo)へのアクセスは、特に農村部や低地部において、資源の制約により制限されることが多い。
本稿では,患者の最も情報性の高いエコー映像を動的に選択する強化学習(RL)によるアクティブビデオ取得フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-02T23:47:43Z) - MedVQA-TREE: A Multimodal Reasoning and Retrieval Framework for Sarcopenia Prediction [1.7775777785480917]
MedVQA-TREEは階層的な画像解釈モジュール、ゲート機能レベルの融合機構、新しいマルチホップ・マルチクエリ検索戦略を統合したフレームワークである。
ゲート融合機構は、視覚的特徴をテキストクエリと選択的に統合し、臨床知識は、PubMedにアクセスするUMLS誘導パイプラインとサルコピア固有の外部知識ベースを介して検索する。
診断精度は99%まで向上し、従来の最先端の手法を10%以上上回った。
論文 参考訳(メタデータ) (2025-08-26T13:31:01Z) - Privacy-Preserving Federated Foundation Model for Generalist Ultrasound Artificial Intelligence [83.02106623401885]
プライバシー保護型超音波基礎モデルであるUltraFedFMを提案する。
UltraFedFMは、9か国の16の分散医療機関にわたる連合学習を用いて、協調的に事前訓練されている。
疾患診断には0.927のレシーバ動作特性曲線、病変セグメント化には0.878のサイス類似係数を平均的に達成する。
論文 参考訳(メタデータ) (2024-11-25T13:40:11Z) - A Data-Driven Guided Decoding Mechanism for Diagnostic Captioning [11.817595076396925]
診断用キャプション(DC)は、患者の1つ以上の医療画像から診断用テキストを自動的に生成する。
本稿では,診断テキスト生成プロセスのビームサーチに医療情報を組み込んだデータ駆動型ガイドデコーディング手法を提案する。
提案手法は,CNNエンコーダを用いた汎用画像-テキストシステムから,事前学習された大規模言語モデルまで,4つのDCシステムを用いて2つの医療データセット上で評価する。
論文 参考訳(メタデータ) (2024-06-20T10:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。