論文の概要: A Foundational Generative Model for Breast Ultrasound Image Analysis
- arxiv url: http://arxiv.org/abs/2501.06869v1
- Date: Sun, 12 Jan 2025 16:39:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:29:29.274635
- Title: A Foundational Generative Model for Breast Ultrasound Image Analysis
- Title(参考訳): 乳房超音波画像解析のための基礎的生成モデル
- Authors: Haojun Yu, Youcheng Li, Nan Zhang, Zihan Niu, Xuantong Gong, Yanwen Luo, Haotian Ye, Siyu He, Quanlin Wu, Wangyan Qin, Mengyuan Zhou, Jie Han, Jia Tao, Ziwei Zhao, Di Dai, Di He, Dong Wang, Binghui Tang, Ling Huo, James Zou, Qingli Zhu, Yong Wang, Liwei Wang,
- Abstract要約: 基礎モデルは臨床現場で様々な課題に対処するための強力なツールとして登場した。
乳房超音波検査に特化して設計された最初の基礎的生成モデルであるBUSGenについて述べる。
BUSGenは、数ショットの適応で、現実的で情報に富んだタスク固有のデータのリポジトリを生成することができる。
- 参考スコア(独自算出の注目度): 42.618964727896156
- License:
- Abstract: Foundational models have emerged as powerful tools for addressing various tasks in clinical settings. However, their potential development to breast ultrasound analysis remains untapped. In this paper, we present BUSGen, the first foundational generative model specifically designed for breast ultrasound image analysis. Pretrained on over 3.5 million breast ultrasound images, BUSGen has acquired extensive knowledge of breast structures, pathological features, and clinical variations. With few-shot adaptation, BUSGen can generate repositories of realistic and informative task-specific data, facilitating the development of models for a wide range of downstream tasks. Extensive experiments highlight BUSGen's exceptional adaptability, significantly exceeding real-data-trained foundational models in breast cancer screening, diagnosis, and prognosis. In breast cancer early diagnosis, our approach outperformed all board-certified radiologists (n=9), achieving an average sensitivity improvement of 16.5% (P-value<0.0001). Additionally, we characterized the scaling effect of using generated data which was as effective as the collected real-world data for training diagnostic models. Moreover, extensive experiments demonstrated that our approach improved the generalization ability of downstream models. Importantly, BUSGen protected patient privacy by enabling fully de-identified data sharing, making progress forward in secure medical data utilization. An online demo of BUSGen is available at https://aibus.bio.
- Abstract(参考訳): 基礎モデルは臨床現場で様々な課題に対処するための強力なツールとして登場した。
しかし、乳房超音波検査の進展は未解決のままである。
本稿では,乳房超音波画像解析に特化して設計された最初の基礎的生成モデルであるBUSGenについて述べる。
BUSGenは、350万以上の乳房超音波画像に基づいて、乳房の構造、病理学的特徴、臨床変化に関する広範な知識を得た。
数ショットの適応により、BUSGenは現実的で情報的なタスク固有のデータのリポジトリを生成することができ、幅広い下流タスクのためのモデルの開発を容易にする。
BUSGenの異常適応性は乳がん検診、診断、予後における実際のデータトレーニングの基礎モデルを大きく上回っている。
乳がん早期診断では,全検診医(n=9),平均感度16.5%(P値<0.0001。
また,診断モデルの学習において,収集した実世界のデータと同じくらい有効である生成データを使用することによるスケーリング効果を特徴とした。
さらに,より広範な実験により,下流モデルの一般化能力の向上が示された。
重要なことは、BUSGenは、完全に識別されていないデータ共有を可能にして患者のプライバシを保護し、安全な医療データ利用を前進させることである。
BUSGenのオンラインデモはhttps://aibus.bio.comで公開されている。
関連論文リスト
- Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - Breast tumor classification based on self-supervised contrastive learning from ultrasound videos [7.825379326219145]
我々は,胸部超音波ビデオクリップから表現を学習するために,トリプルトネットワークと自己教師付きコントラスト学習手法を採用した。
本モデルでは,受信機動作特性曲線 (AUC) の0.952の領域を達成した。
提案フレームワークはラベル付きデータに対する需要を大幅に減らし,乳房超音波画像の自動診断に活用する可能性を秘めている。
論文 参考訳(メタデータ) (2024-08-20T07:16:01Z) - Knowledge-driven AI-generated data for accurate and interpretable breast ultrasound diagnoses [29.70102468004044]
本稿では, 知識駆動型生成モデルを構築し, 適切な合成データを生成するパイプラインTAILORを提案する。
生成モデルは、ソースデータとして3,749の病変を使用し、特にエラーを起こしやすいまれな症例において、数百万の乳房US画像を生成することができる。
今後の外部評価では, 同じ感度で9名の放射線技師の平均性能を33.5%向上させる。
論文 参考訳(メタデータ) (2024-07-23T16:49:01Z) - Predictive Modeling for Breast Cancer Classification in the Context of Bangladeshi Patients: A Supervised Machine Learning Approach with Explainable AI [0.0]
5種類の機械学習手法の分類精度,精度,リコール,F-1スコアを評価し,比較した。
XGBoostは97%という最高のモデル精度を達成した。
論文 参考訳(メタデータ) (2024-04-06T17:23:21Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Improving the diagnosis of breast cancer based on biophysical ultrasound
features utilizing machine learning [0.0]
乳がん検出のための生物物理学的特徴に基づく機械学習手法を提案する。
以上より, 乳腺病変のタイプとサイズは, 分類では98.0%, 操作特性曲線では0.98以上であった。
論文 参考訳(メタデータ) (2022-07-13T23:53:09Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Detection of masses and architectural distortions in digital breast
tomosynthesis: a publicly available dataset of 5,060 patients and a deep
learning model [4.3359550072619255]
乳房トモシンセシス画像の大規模データセットをキュレートし,公開している。
5,060人の患者から5,610人を対象にした22,032冊の復元版がある。
我々は単相深層学習検出モデルを開発し、将来の研究のベースラインとしてデータセットを用いてテストした。
論文 参考訳(メタデータ) (2020-11-13T18:33:31Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。