論文の概要: A Fully Open and Generalizable Foundation Model for Ultrasound Clinical Applications
- arxiv url: http://arxiv.org/abs/2509.11752v1
- Date: Mon, 15 Sep 2025 10:05:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.228461
- Title: A Fully Open and Generalizable Foundation Model for Ultrasound Clinical Applications
- Title(参考訳): 超音波臨床応用のための完全開放・一般化可能な基礎モデル
- Authors: Hongyuan Zhang, Yuheng Wu, Mingyang Zhao, Zhiwei Chen, Rebecca Li, Fei Zhu, Haohan Zhao, Xiaohua Yuan, Meng Yang, Chunli Qiu, Xiang Cong, Haiyan Chen, Lina Luan, Randolph H. L. Wong, Huai Liao, Colin A Graham, Shi Chang, Guowei Tao, Dong Yi, Zhen Lei, Nassir Navab, Sebastien Ourselin, Jiebo Luo, Hongbin Liu, Gaofeng Meng,
- Abstract要約: 一般臨床用超音波基礎モデルであるEchoCareについて紹介する。
我々は、キュレートされた、一般公開された大規模なデータセットであるEchoCareData上で、自己教師付き学習を通じてEchoCareを開発した。
最小限のトレーニングで、EchoCareは10の代表的なベンチマークで最先端の比較モデルを上回っている。
- 参考スコア(独自算出の注目度): 77.3888788549565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) that can effectively learn ultrasound representations by integrating multi-source data holds significant promise for advancing clinical care. However, the scarcity of large labeled datasets in real-world clinical environments and the limited generalizability of task-specific models have hindered the development of generalizable clinical AI models for ultrasound applications. In this study, we present EchoCare, a novel ultrasound foundation model for generalist clinical use, developed via self-supervised learning on our curated, publicly available, large-scale dataset EchoCareData. EchoCareData comprises 4.5 million ultrasound images, sourced from over 23 countries across 5 continents and acquired via a diverse range of distinct imaging devices, thus encompassing global cohorts that are multi-center, multi-device, and multi-ethnic. Unlike prior studies that adopt off-the-shelf vision foundation model architectures, we introduce a hierarchical classifier into EchoCare to enable joint learning of pixel-level and representation-level features, capturing both global anatomical contexts and local ultrasound characteristics. With minimal training, EchoCare outperforms state-of-the-art comparison models across 10 representative ultrasound benchmarks of varying diagnostic difficulties, spanning disease diagnosis, lesion segmentation, organ detection, landmark prediction, quantitative regression, imaging enhancement and report generation. The code and pretrained model are publicly released, rendering EchoCare accessible for fine-tuning and local adaptation, supporting extensibility to additional applications. EchoCare provides a fully open and generalizable foundation model to boost the development of AI technologies for diverse clinical ultrasound applications.
- Abstract(参考訳): マルチソースデータを統合することで、効果的に超音波表現を学習できる人工知能(AI)は、臨床医療を進歩させる大きな可能性を秘めている。
しかし、実際の臨床環境における大規模ラベル付きデータセットの不足とタスク固有モデルの限定的な一般化性は、超音波応用のための一般化可能な臨床AIモデルの開発を妨げている。
本研究では,一般臨床応用のための新しい超音波基礎モデルであるEchoCareを提案する。
EchoCareDataは、5大陸の23カ国以上からソースされ、多様なイメージングデバイスを通じて取得される450万の超音波画像で構成されており、多中心、多デバイス、多民族のグローバルなコホートを含んでいる。
既成のビジョン基礎モデルアーキテクチャを採用する以前の研究とは異なり、我々は階層型分類器をEchoCareに導入し、ピクセルレベルの特徴と表現レベルの特徴を共同学習し、大域的な解剖学的文脈と局所的な超音波特性の両方をキャプチャする。
最小限のトレーニングで、EchoCareは、診断の困難、病変のセグメンテーション、臓器検出、ランドマーク予測、定量的回帰、画像強調、レポート生成など、さまざまな診断困難に関する10の代表的な超音波ベンチマークにおいて、最先端の比較モデルを上回っている。
コードと事前トレーニングされたモデルは公開されており、EchoCareは微調整や局所的な適応に利用でき、追加のアプリケーションの拡張性をサポートする。
EchoCareは完全にオープンで一般化可能な基礎モデルを提供し、様々な臨床超音波応用のためのAI技術の開発を促進する。
関連論文リスト
- Privacy-Preserving Federated Foundation Model for Generalist Ultrasound Artificial Intelligence [83.02106623401885]
プライバシー保護型超音波基礎モデルであるUltraFedFMを提案する。
UltraFedFMは、9か国の16の分散医療機関にわたる連合学習を用いて、協調的に事前訓練されている。
疾患診断には0.927のレシーバ動作特性曲線、病変セグメント化には0.878のサイス類似係数を平均的に達成する。
論文 参考訳(メタデータ) (2024-11-25T13:40:11Z) - EchoApex: A General-Purpose Vision Foundation Model for Echocardiography [9.202542805578432]
本稿では,初の汎用視覚基礎モデルであるEchoApexを紹介し,様々な臨床応用について紹介する。
自己教師付き学習を活用して、EchoApexは11の臨床センターから2000万以上のエコー画像に事前訓練されている。
最先端のタスク固有のモデルと比較すると、EchoApexは統一されたイメージエンコーディングアーキテクチャでパフォーマンスが改善されている。
論文 参考訳(メタデータ) (2024-10-14T21:10:56Z) - UniUSNet: A Promptable Framework for Universal Ultrasound Disease Prediction and Tissue Segmentation [19.85119434049726]
超音波画像分類とセグメンテーションのための汎用フレームワークUniUSNetを提案する。
このモデルは様々な超音波タイプ、解剖学的位置、入力形式を扱い、セグメンテーションと分類の両方に優れる。
データセットを拡張して、モデルウェイトとコードが利用可能で、プロンプトメカニズムを洗練する予定です。
論文 参考訳(メタデータ) (2024-06-03T09:49:54Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Show from Tell: Audio-Visual Modelling in Clinical Settings [58.88175583465277]
臨床環境でのオーディオ・ビジュアル・モデリングを考察し、人間の専門的アノテーションを使わずに医学的表現を学習するためのソリューションを提供する。
この目的のために, 単純かつ効果的なマルチモーダル自己教師型学習フレームワークを提案する。
提案手法は,音声のみを基準として,超音波画像中の解剖学的関心領域をローカライズすることができる。
論文 参考訳(メタデータ) (2023-10-25T08:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。