論文の概要: OpenUS: A Fully Open-Source Foundation Model for Ultrasound Image Analysis via Self-Adaptive Masked Contrastive Learning
- arxiv url: http://arxiv.org/abs/2511.11510v1
- Date: Fri, 14 Nov 2025 17:31:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.747899
- Title: OpenUS: A Fully Open-Source Foundation Model for Ultrasound Image Analysis via Self-Adaptive Masked Contrastive Learning
- Title(参考訳): OpenUS: 自己適応型マスケッドコントラスト学習による超音波画像解析のための完全オープンソース基盤モデル
- Authors: Xiaoyu Zheng, Xu Chen, Awais Rauf, Qifan Fu, Benedetta Monosi, Felice Rivellese, Myles J. Lewis, Shaogang Gong, Gregory Slabaugh,
- Abstract要約: 公開データの集合体上に構築された初の再現可能なオープンソース超音波基礎モデルであるOpenUSを提案する。
OpenUSはビジョンのMambaバックボーンを採用し、画像全体のローカルおよびグローバルな長距離依存関係をキャプチャする。
我々の事前学習したOpenUSモデルは、ラベル効率の良い微調整のバックボーンとして機能することで、特定の下流タスクに容易に適応できる。
- 参考スコア(独自算出の注目度): 21.558477283179652
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Ultrasound (US) is one of the most widely used medical imaging modalities, thanks to its low cost, portability, real-time feedback, and absence of ionizing radiation. However, US image interpretation remains highly operator-dependent and varies significantly across anatomical regions, acquisition protocols, and device types. These variations, along with unique challenges such as speckle, low contrast, and limited standardized annotations, hinder the development of generalizable, label-efficient ultrasound AI models. In this paper, we propose OpenUS, the first reproducible, open-source ultrasound foundation model built on a large collection of public data. OpenUS employs a vision Mamba backbone, capturing both local and global long-range dependencies across the image. To extract rich features during pre-training, we introduce a novel self-adaptive masking framework that combines contrastive learning with masked image modeling. This strategy integrates the teacher's attention map with student reconstruction loss, adaptively refining clinically-relevant masking to enhance pre-training effectiveness. OpenUS also applies a dynamic learning schedule to progressively adjust the difficulty of the pre-training process. To develop the foundation model, we compile the largest to-date public ultrasound dataset comprising over 308K images from 42 publicly available datasets, covering diverse anatomical regions, institutions, imaging devices, and disease types. Our pre-trained OpenUS model can be easily adapted to specific downstream tasks by serving as a backbone for label-efficient fine-tuning. Code is available at https://github.com/XZheng0427/OpenUS.
- Abstract(参考訳): 超音波(US)は、低コスト、可搬性、リアルタイムフィードバック、電離放射線の欠如により、最も広く使われている医療画像のモダリティの1つである。
しかし、米国の画像解釈は演算子に依存しており、解剖学的領域、取得プロトコル、デバイスタイプによって大きく異なる。
これらのバリエーションは、スペックル、低コントラスト、限定された標準アノテーションといったユニークな課題と共に、一般化可能でラベル効率のよい超音波AIモデルの開発を妨げる。
本稿では,公開データの集合体上に構築された初の再現可能なオープンソース超音波基礎モデルであるOpenUSを提案する。
OpenUSはビジョンのMambaバックボーンを採用し、画像全体のローカルおよびグローバルな長距離依存関係をキャプチャする。
事前学習中に豊富な特徴を抽出するために,コントラスト学習とマスク画像モデリングを組み合わせた新しい自己適応型マスキングフレームワークを提案する。
この戦略は、教師の注意マップと学生の再建損失を統合し、臨床関連マスキングを適応的に精製し、事前学習の有効性を高める。
OpenUSはまた、トレーニング前のプロセスの難易度を段階的に調整するために動的学習スケジュールを適用している。
基礎モデルを開発するために,42の公開データセットから308K以上の画像で構成され,多様な解剖学的領域,施設,画像診断装置,疾患タイプを網羅した,過去最大の公開超音波データセットをコンパイルした。
我々の事前学習したOpenUSモデルは、ラベル効率の良い微調整のバックボーンとして機能することで、特定の下流タスクに容易に適応できる。
コードはhttps://github.com/XZheng0427/OpenUSで入手できる。
関連論文リスト
- USF-MAE: Ultrasound Self-Supervised Foundation Model with Masked Autoencoding [0.205246094017924]
マスク付き自動符号化(USF-MAE)を用いた超音波自己監督基礎モデルについて紹介する。
USF-MAEは超音波データのみに事前訓練された最初の大規模自己監督型MAEフレームワークである。
このモデルは、46のオープンソースデータセットから算出された370,000の2Dおよび3D超音波画像で事前訓練された。
論文 参考訳(メタデータ) (2025-10-27T04:16:43Z) - A Fully Open and Generalizable Foundation Model for Ultrasound Clinical Applications [77.3888788549565]
一般臨床用超音波基礎モデルであるEchoCareについて紹介する。
我々は、キュレートされた、一般公開された大規模なデータセットであるEchoCareData上で、自己教師付き学習を通じてEchoCareを開発した。
最小限のトレーニングで、EchoCareは10の代表的なベンチマークで最先端の比較モデルを上回っている。
論文 参考訳(メタデータ) (2025-09-15T10:05:31Z) - UniMed-CLIP: Towards a Unified Image-Text Pretraining Paradigm for Diverse Medical Imaging Modalities [68.12889379702824]
対照的な学習によって訓練された視覚言語モデル(VLM)は、自然画像タスクにおいて顕著な成功を収めた。
UniMedは530万以上の画像テキストペアからなる、大規模でオープンソースのマルチモーダル医療データセットである。
我々は、6つのモダリティのための統一VLMであるUniMed-CLIPを訓練し、ゼロショット評価において顕著な利益を得た。
論文 参考訳(メタデータ) (2024-12-13T18:59:40Z) - UniUSNet: A Promptable Framework for Universal Ultrasound Disease Prediction and Tissue Segmentation [19.85119434049726]
超音波画像分類とセグメンテーションのための汎用フレームワークUniUSNetを提案する。
このモデルは様々な超音波タイプ、解剖学的位置、入力形式を扱い、セグメンテーションと分類の両方に優れる。
データセットを拡張して、モデルウェイトとコードが利用可能で、プロンプトメカニズムを洗練する予定です。
論文 参考訳(メタデータ) (2024-06-03T09:49:54Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Generating and Weighting Semantically Consistent Sample Pairs for
Ultrasound Contrastive Learning [10.631361618707214]
よく注釈付けされた医療データセットにより、ディープニューラルネットワーク(DNN)は、病変に関連する特徴を抽出する上で強力なパワーを得ることができる。
ImageNetに基づくモデル事前トレーニングは、データ量に制限がある場合に、より良い一般化を得るための一般的なプラクティスである。
本研究では,医療用USアプリケーションの領域ギャップを低減するために,ImageNetの代わりに超音波(US)ドメインを事前訓練する。
論文 参考訳(メタデータ) (2022-12-08T06:24:08Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。