論文の概要: A Fully Open and Generalizable Foundation Model for Ultrasound Clinical Applications
- arxiv url: http://arxiv.org/abs/2509.11752v1
- Date: Mon, 15 Sep 2025 10:05:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.228461
- Title: A Fully Open and Generalizable Foundation Model for Ultrasound Clinical Applications
- Title(参考訳): 超音波臨床応用のための完全開放・一般化可能な基礎モデル
- Authors: Hongyuan Zhang, Yuheng Wu, Mingyang Zhao, Zhiwei Chen, Rebecca Li, Fei Zhu, Haohan Zhao, Xiaohua Yuan, Meng Yang, Chunli Qiu, Xiang Cong, Haiyan Chen, Lina Luan, Randolph H. L. Wong, Huai Liao, Colin A Graham, Shi Chang, Guowei Tao, Dong Yi, Zhen Lei, Nassir Navab, Sebastien Ourselin, Jiebo Luo, Hongbin Liu, Gaofeng Meng,
- Abstract要約: 一般臨床用超音波基礎モデルであるEchoCareについて紹介する。
我々は、キュレートされた、一般公開された大規模なデータセットであるEchoCareData上で、自己教師付き学習を通じてEchoCareを開発した。
最小限のトレーニングで、EchoCareは10の代表的なベンチマークで最先端の比較モデルを上回っている。
- 参考スコア(独自算出の注目度): 77.3888788549565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) that can effectively learn ultrasound representations by integrating multi-source data holds significant promise for advancing clinical care. However, the scarcity of large labeled datasets in real-world clinical environments and the limited generalizability of task-specific models have hindered the development of generalizable clinical AI models for ultrasound applications. In this study, we present EchoCare, a novel ultrasound foundation model for generalist clinical use, developed via self-supervised learning on our curated, publicly available, large-scale dataset EchoCareData. EchoCareData comprises 4.5 million ultrasound images, sourced from over 23 countries across 5 continents and acquired via a diverse range of distinct imaging devices, thus encompassing global cohorts that are multi-center, multi-device, and multi-ethnic. Unlike prior studies that adopt off-the-shelf vision foundation model architectures, we introduce a hierarchical classifier into EchoCare to enable joint learning of pixel-level and representation-level features, capturing both global anatomical contexts and local ultrasound characteristics. With minimal training, EchoCare outperforms state-of-the-art comparison models across 10 representative ultrasound benchmarks of varying diagnostic difficulties, spanning disease diagnosis, lesion segmentation, organ detection, landmark prediction, quantitative regression, imaging enhancement and report generation. The code and pretrained model are publicly released, rendering EchoCare accessible for fine-tuning and local adaptation, supporting extensibility to additional applications. EchoCare provides a fully open and generalizable foundation model to boost the development of AI technologies for diverse clinical ultrasound applications.
- Abstract(参考訳): マルチソースデータを統合することで、効果的に超音波表現を学習できる人工知能(AI)は、臨床医療を進歩させる大きな可能性を秘めている。
しかし、実際の臨床環境における大規模ラベル付きデータセットの不足とタスク固有モデルの限定的な一般化性は、超音波応用のための一般化可能な臨床AIモデルの開発を妨げている。
本研究では,一般臨床応用のための新しい超音波基礎モデルであるEchoCareを提案する。
EchoCareDataは、5大陸の23カ国以上からソースされ、多様なイメージングデバイスを通じて取得される450万の超音波画像で構成されており、多中心、多デバイス、多民族のグローバルなコホートを含んでいる。
既成のビジョン基礎モデルアーキテクチャを採用する以前の研究とは異なり、我々は階層型分類器をEchoCareに導入し、ピクセルレベルの特徴と表現レベルの特徴を共同学習し、大域的な解剖学的文脈と局所的な超音波特性の両方をキャプチャする。
最小限のトレーニングで、EchoCareは、診断の困難、病変のセグメンテーション、臓器検出、ランドマーク予測、定量的回帰、画像強調、レポート生成など、さまざまな診断困難に関する10の代表的な超音波ベンチマークにおいて、最先端の比較モデルを上回っている。
コードと事前トレーニングされたモデルは公開されており、EchoCareは微調整や局所的な適応に利用でき、追加のアプリケーションの拡張性をサポートする。
EchoCareは完全にオープンで一般化可能な基礎モデルを提供し、様々な臨床超音波応用のためのAI技術の開発を促進する。
関連論文リスト
- FETAL-GAUGE: A Benchmark for Assessing Vision-Language Models in Fetal Ultrasound [2.8097961263689406]
出生前超音波画像の需要は、訓練されたソノグラフィーの世界的な不足を増している。
深層学習は、ソノグラフィーの効率を高め、新しい実践者の訓練を支援する可能性がある。
We present Fetal-Gauge, the first and largest visual question answering benchmark designed to evaluate Vision-Language Models (VLMs)。
対象は,42,000枚以上の画像と93,000枚の質問応答対,解剖学的平面同定,解剖学的形態の視覚的グラウンドニング,胎児の配向評価,臨床像の適合性,臨床診断である。
論文 参考訳(メタデータ) (2025-12-25T04:54:37Z) - Auto-US: An Ultrasound Video Diagnosis Agent Using Video Classification Framework and LLMs [13.37674307639552]
超音波画像データと臨床診断テキストを統合するインテリジェント診断エージェントであるtextbfAuto-US を提案する。
我々は,超音波映像分類における最先端性能を実現するtextbfCTU-Net を開発し,精度86.73%に達した。
これらの結果は,実世界の超音波応用におけるAuto-USの有効性と臨床効果を示すものである。
論文 参考訳(メタデータ) (2025-11-11T02:00:56Z) - Epistemic-aware Vision-Language Foundation Model for Fetal Ultrasound Interpretation [83.02147613524032]
医療用AIシステムFetalMindについて報告する。
本稿では、専門家による2部グラフをモデルに注入し、ビュー・ディスリーズ関連を分離するSED(Salient Epistemic Disentanglement)を提案する。
FetalMindはすべての妊娠期のオープンソースおよびクローズドソースベースラインを上回り、平均利得は+14%、臨界条件では+61.2%高い。
論文 参考訳(メタデータ) (2025-10-14T19:57:03Z) - EchoVLM: Dynamic Mixture-of-Experts Vision-Language Model for Universal Ultrasound Intelligence [9.731550105507457]
本稿では,超音波医療画像に特化して設計された視覚言語モデルであるEchoVLMを提案する。
このモデルは、7つの解剖学的領域にまたがるデータに基づいてトレーニングされたMixture of Experts (MoE)アーキテクチャを採用している。
EchoVLMは、それぞれBLEU-1スコアとROUGE-1スコアで10.15点と4.77点を大きく改善した。
論文 参考訳(メタデータ) (2025-09-18T14:07:53Z) - UltraEar: a multicentric, large-scale database combining ultra-high-resolution computed tomography and clinical data for ear diseases [28.75872046719716]
UltraEarは2020年10月から2035年10月までに11の病院から患者を募集している。
UltraEarは2020年10月から2035年10月までに11の病院から患者を募集している。
耳下腺炎,角膜腫,骨鎖奇形,側頭骨骨折,内耳奇形,人工内耳狭窄,拡張前庭水管,シグモイド洞骨欠損など,眼科疾患の幅広いスペクトルが報告されている。
論文 参考訳(メタデータ) (2025-08-27T05:56:17Z) - Privacy-Preserving Federated Foundation Model for Generalist Ultrasound Artificial Intelligence [83.02106623401885]
プライバシー保護型超音波基礎モデルであるUltraFedFMを提案する。
UltraFedFMは、9か国の16の分散医療機関にわたる連合学習を用いて、協調的に事前訓練されている。
疾患診断には0.927のレシーバ動作特性曲線、病変セグメント化には0.878のサイス類似係数を平均的に達成する。
論文 参考訳(メタデータ) (2024-11-25T13:40:11Z) - EchoApex: A General-Purpose Vision Foundation Model for Echocardiography [9.202542805578432]
本稿では,初の汎用視覚基礎モデルであるEchoApexを紹介し,様々な臨床応用について紹介する。
自己教師付き学習を活用して、EchoApexは11の臨床センターから2000万以上のエコー画像に事前訓練されている。
最先端のタスク固有のモデルと比較すると、EchoApexは統一されたイメージエンコーディングアーキテクチャでパフォーマンスが改善されている。
論文 参考訳(メタデータ) (2024-10-14T21:10:56Z) - UniUSNet: A Promptable Framework for Universal Ultrasound Disease Prediction and Tissue Segmentation [19.85119434049726]
超音波画像分類とセグメンテーションのための汎用フレームワークUniUSNetを提案する。
このモデルは様々な超音波タイプ、解剖学的位置、入力形式を扱い、セグメンテーションと分類の両方に優れる。
データセットを拡張して、モデルウェイトとコードが利用可能で、プロンプトメカニズムを洗練する予定です。
論文 参考訳(メタデータ) (2024-06-03T09:49:54Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Show from Tell: Audio-Visual Modelling in Clinical Settings [58.88175583465277]
臨床環境でのオーディオ・ビジュアル・モデリングを考察し、人間の専門的アノテーションを使わずに医学的表現を学習するためのソリューションを提供する。
この目的のために, 単純かつ効果的なマルチモーダル自己教師型学習フレームワークを提案する。
提案手法は,音声のみを基準として,超音波画像中の解剖学的関心領域をローカライズすることができる。
論文 参考訳(メタデータ) (2023-10-25T08:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。