論文の概要: USF-MAE: Ultrasound Self-Supervised Foundation Model with Masked Autoencoding
- arxiv url: http://arxiv.org/abs/2510.22990v1
- Date: Mon, 27 Oct 2025 04:16:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.446961
- Title: USF-MAE: Ultrasound Self-Supervised Foundation Model with Masked Autoencoding
- Title(参考訳): USF-MAE:仮面自動符号化による超音波自己監督ファンデーションモデル
- Authors: Youssef Megahed, Robin Ducharme, Mark Walker, Steven Hawken, Adrian D. C. Chan,
- Abstract要約: マスク付き自動符号化(USF-MAE)を用いた超音波自己監督基礎モデルについて紹介する。
USF-MAEは超音波データのみに事前訓練された最初の大規模自己監督型MAEフレームワークである。
このモデルは、46のオープンソースデータセットから算出された370,000の2Dおよび3D超音波画像で事前訓練された。
- 参考スコア(独自算出の注目度): 0.2174820084855635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ultrasound imaging is one of the most widely used diagnostic modalities, offering real-time, radiation-free assessment across diverse clinical domains. However, interpretation of ultrasound images remains challenging due to high noise levels, operator dependence, and limited field of view, resulting in substantial inter-observer variability. Current Deep Learning approaches are hindered by the scarcity of large labeled datasets and the domain gap between general and sonographic images, which limits the transferability of models pretrained on non-medical data. To address these challenges, we introduce the Ultrasound Self-Supervised Foundation Model with Masked Autoencoding (USF-MAE), the first large-scale self-supervised MAE framework pretrained exclusively on ultrasound data. The model was pre-trained on 370,000 2D and 3D ultrasound images curated from 46 open-source datasets, collectively termed OpenUS-46, spanning over twenty anatomical regions. This curated dataset has been made publicly available to facilitate further research and reproducibility. Using a Vision Transformer encoder-decoder architecture, USF-MAE reconstructs masked image patches, enabling it to learn rich, modality-specific representations directly from unlabeled data. The pretrained encoder was fine-tuned on three public downstream classification benchmarks: BUS-BRA (breast cancer), MMOTU-2D (ovarian tumors), and GIST514-DB (gastrointestinal stromal tumors). Across all tasks, USF-MAE consistently outperformed conventional CNN and ViT baselines, achieving F1-scores of 81.6%, 79.6%, and 82.4%, respectively. Despite not using labels during pretraining, USF-MAE approached the performance of the supervised foundation model UltraSam on breast cancer classification and surpassed it on the other tasks, demonstrating strong cross-anatomical generalization.
- Abstract(参考訳): 超音波イメージングは、様々な臨床領域でリアルタイムで放射線のない評価を提供する、最も広く使われている診断方法の1つである。
しかし, 超音波画像の解釈は, 高ノイズレベル, 演算子依存性, 視野の制限により困難であり, 実質的なサーバ間変動が生じる。
現在のDeep Learningアプローチは、大規模ラベル付きデータセットの不足と、一般画像と超音波画像の領域ギャップによって妨げられている。
これらの課題に対処するために,超音波データのみを前提とした最初の大規模自己監督型MAEフレームワークであるUSF-MAE(Ultrasound Self-Supervised Foundation Model with Masked Autoencoding)を導入する。
このモデルは、20の解剖学的領域にまたがる46のオープンソースデータセットから算出された370,000の2Dおよび3D超音波画像に基づいて事前訓練された。
このキュレートされたデータセットは、さらなる研究と再現性を促進するために公開されている。
ビジョントランスフォーマーエンコーダデコーダアーキテクチャを用いて、USF-MAEはマスクされたイメージパッチを再構成し、ラベルのないデータから直接リッチでモダリティ固有の表現を学習する。
BUS-BRA(乳癌)、MMOTU-2D(卵巣腫瘍)、GIST514-DB(胃腸管間質腫瘍)の3つの公開下流分類基準を微調整した。
すべてのタスクにおいて、USF-MAEは従来のCNNとViTのベースラインを一貫して上回り、F1スコアはそれぞれ81.6%、79.6%、82.4%となった。
プレトレーニング中にラベルを使用しなかったにもかかわらず、USF-MAEは乳がん分類に関する教師付き基礎モデルであるUltraSamのパフォーマンスにアプローチし、他のタスクを上回り、解剖学的に強い一般化を示した。
関連論文リスト
- A Fully Open and Generalizable Foundation Model for Ultrasound Clinical Applications [77.3888788549565]
一般臨床用超音波基礎モデルであるEchoCareについて紹介する。
我々は、キュレートされた、一般公開された大規模なデータセットであるEchoCareData上で、自己教師付き学習を通じてEchoCareを開発した。
最小限のトレーニングで、EchoCareは10の代表的なベンチマークで最先端の比較モデルを上回っている。
論文 参考訳(メタデータ) (2025-09-15T10:05:31Z) - Grounding DINO-US-SAM: Text-Prompted Multi-Organ Segmentation in Ultrasound with LoRA-Tuned Vision-Language Models [4.981692533734272]
本研究では,複数の超音波臓器にまたがる物体セグメンテーションを実現するために,Grounding DINOとSAM2を統合したプロンプト駆動視覚言語モデル(VLM)を提案する。
胸, 甲状腺, 肝臓, 前立腺, 腎臓, 脊髄筋を含む18種類の超音波データセットが得られた。
提案手法は,UniverSeg,MedSAM,MedCLIP-SAM,BiomedParse,SAMUSなどの最先端セグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2025-06-30T14:33:44Z) - The Efficacy of Semantics-Preserving Transformations in Self-Supervised Learning for Medical Ultrasound [60.80780313225093]
本研究は, 肺超音波の自己教師あり学習におけるデータ拡張と前処理方略の影響を系統的に検討した。
画像領域に共通して使用されるベースラインパイプライン、超音波用に設計された新しいセマンティック保存パイプライン、両方のパイプラインから最も効果的な変換の蒸留セットの3つのデータ拡張パイプラインが評価された。
論文 参考訳(メタデータ) (2025-04-10T16:26:47Z) - Privacy-Preserving Federated Foundation Model for Generalist Ultrasound Artificial Intelligence [83.02106623401885]
プライバシー保護型超音波基礎モデルであるUltraFedFMを提案する。
UltraFedFMは、9か国の16の分散医療機関にわたる連合学習を用いて、協調的に事前訓練されている。
疾患診断には0.927のレシーバ動作特性曲線、病変セグメント化には0.878のサイス類似係数を平均的に達成する。
論文 参考訳(メタデータ) (2024-11-25T13:40:11Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - WATUNet: A Deep Neural Network for Segmentation of Volumetric Sweep
Imaging Ultrasound [1.2903292694072621]
ボリューム・スイープ・イメージング(VSI)は、訓練を受けていないオペレーターが高品質な超音波画像をキャプチャできる革新的な手法である。
本稿ではWavelet_Attention_UNet(WATUNet)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルでは、簡単な接続ではなく、ウェーブレットゲート(WG)とアテンションゲート(AG)をエンコーダとデコーダの間に組み込んで、上記の制限を克服する。
論文 参考訳(メタデータ) (2023-11-17T20:32:37Z) - Towards Realistic Ultrasound Fetal Brain Imaging Synthesis [0.7315240103690552]
臨床データ不足、患者のプライバシ、一般的には異常の稀な発生、データ収集と検証の専門家の限られたため、一般の超音波胎児画像データセットはほとんどない。
このようなデータ不足に対処するため、私たちは1つのパブリックデータセットから胎児の超音波脳面の画像を生成するために、GAN(Generative Adversarial Network)ベースのモデル、拡散超解像-GANとトランスフォーマーベース-GANを提案した。
論文 参考訳(メタデータ) (2023-04-08T07:07:20Z) - Multi-Modal Active Learning for Automatic Liver Fibrosis Diagnosis based
on Ultrasound Shear Wave Elastography [13.13249599000645]
超音波診断などの非侵襲的診断は肝線維症自動診断(ALFD)において極めて重要である
ノイズの多いデータ、アメリカの画像の高価なアノテーションのため、AI(Artificial Intelligence)アプローチの応用はボトルネックに直面する。
本研究では, ALFD のための多モード融合ネットワーク (MMFN-AL) を革新的に提案する。
論文 参考訳(メタデータ) (2020-11-02T03:05:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。