論文の概要: Toward explainable AI approaches for breast imaging: adapting foundation models to diverse populations
- arxiv url: http://arxiv.org/abs/2511.17828v1
- Date: Fri, 21 Nov 2025 22:45:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.458012
- Title: Toward explainable AI approaches for breast imaging: adapting foundation models to diverse populations
- Title(参考訳): 乳房画像のための説明可能なAIアプローチを目指して : 多様な個体群に基礎モデルを適用する
- Authors: Guilherme J. Cavalcante, José Gabriel A. Moreira, Gabriel A. B. do Nascimento, Vincent Dong, Alex Nguyen, Thaís G. do Rêgo, Yuri Malheiros, Telmo M. Silva Filho, Carla R. Zeballos Torrez, James C. Gee, Anne Marie McCarthy, Andrew D. A. Maidment, Bruno Barufaldi,
- Abstract要約: 基礎モデルでは、乳房画像におけるその効果は未解明だが、専門的な医療画像のタスクを約束している。
本研究では,BiomedCLIPを基礎モデルとして活用し,モデル一般化の課題に対処する。
96,995枚の画像を用いて,一様性(s2Dのみ)と多様性トレーニングアプローチを比較し,重み付きコントラスト学習によるクラス不均衡に対処した。
- 参考スコア(独自算出の注目度): 4.505150709006532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models hold promise for specialized medical imaging tasks, though their effectiveness in breast imaging remains underexplored. This study leverages BiomedCLIP as a foundation model to address challenges in model generalization. BiomedCLIP was adapted for automated BI-RADS breast density classification using multi-modality mammographic data (synthesized 2D images, digital mammography, and digital breast tomosynthesis). Using 96,995 images, we compared single-modality (s2D only) and multi-modality training approaches, addressing class imbalance through weighted contrastive learning. Both approaches achieved similar accuracy (multi-modality: 0.74, single-modality: 0.73), with the multi-modality model offering broader applicability across different imaging modalities and higher AUC values consistently above 0.84 across BI-RADS categories. External validation on the RSNA and EMBED datasets showed strong generalization capabilities (AUC range: 0.80-0.93). GradCAM visualizations confirmed consistent and clinically relevant attention patterns, highlighting the models interpretability and robustness. This research underscores the potential of foundation models for breast imaging applications, paving the way for future extensions for diagnostic tasks.
- Abstract(参考訳): 基礎モデルでは、乳房画像におけるその効果は未解明だが、専門的な医療画像のタスクを約束している。
本研究では,BiomedCLIPを基礎モデルとして活用し,モデル一般化の課題に対処する。
多モードマンモグラフィーデータ(合成2D画像,デジタルマンモグラフィ,デジタル乳房トモシンセシス)を用いてBI-RADS乳房濃度自動分類に適応した。
96,995枚の画像を用いて,一様性(s2Dのみ)と多様性トレーニングアプローチを比較し,重み付きコントラスト学習によるクラス不均衡に対処した。
どちらのアプローチも同様の精度(マルチモーダル: 0.74、単一モダリティ: 0.73)を達成し、マルチモーダルモデルは様々な画像モダリティにまたがって適用可能性を提供し、BI-RADSカテゴリで0.84以上のAUC値を提供する。
RSNAとEMBEDデータセットの外部検証は強力な一般化能力を示した(AUC範囲: 0.80-0.93)。
GradCAMの可視化は、一貫した、臨床的に関係のある注意パターンを確認し、モデルの解釈可能性と堅牢性を強調した。
本研究は乳房画像診断のための基礎モデルの可能性を明らかにし,将来的な機能拡張に向けた道を開くものである。
関連論文リスト
- MM-DINOv2: Adapting Foundation Models for Multi-Modal Medical Image Analysis [19.063517827476826]
MM-DINOv2(MM-DINOv2)は,マルチモーダル・メディカル・イメージングのための事前学習型視覚基盤モデルDINOv2に適応する新しいフレームワークである。
本手法では,マルチモーダル・パッチの埋め込みを取り入れ,視覚基盤モデルによりマルチモーダル・イメージングデータを効果的に処理することができる。
本手法は外部テストセットで0.6のマシューズ相関係数(MCC)を達成し、最先端の教師付きアプローチを+11.1%超える。
論文 参考訳(メタデータ) (2025-09-08T12:34:15Z) - On the effectiveness of multimodal privileged knowledge distillation in two vision transformer based diagnostic applications [42.19559765387761]
マルチモーダル特権知識蒸留(英: multimodal privileged knowledge distillation, MMPKD)は、モダリティを付加し、一様視覚モデル(unimodal vision model)を導出する訓練戦略である。
MMPKDは、入力画像中のROIをローカライズするアテンションマップのゼロショット機能を改善することができることを示す。
論文 参考訳(メタデータ) (2025-08-06T14:14:54Z) - A Hybrid CNN-VSSM model for Multi-View, Multi-Task Mammography Analysis: Robust Diagnosis with Attention-Based Fusion [5.15423063632115]
乳がんの早期かつ正確な検診は乳がん検出に不可欠である。
既存のAIアプローチは、単一ビューのインプットや単一タスクのアウトプットに注目して、不足している。
本研究では,4つの標準マンモグラフィビュー全てを処理する,新しいマルチビュー・マルチタスクハイブリッドディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-22T18:52:18Z) - Multimodal, Multi-Disease Medical Imaging Foundation Model (MerMED-FM) [22.690349928759986]
我々は,自己教師付き学習とメモリモジュールを用いて学習した,最先端のマルチモーダル基盤モデルであるMerMED-FMを開発した。
MerMED-FMは10以上の専門品と7つのモダリティから330万枚の医療画像で訓練された。
AUROCは0.988(皮膚)、0.982(病理)、0.951(US)、0.943(CT)、0.931(CFP)、0.894(CXR)の全てのモードで強い性能が達成された。
論文 参考訳(メタデータ) (2025-06-30T18:50:31Z) - Advancing Stroke Risk Prediction Using a Multi-modal Foundation Model [0.1671198589006117]
脳卒中リスクの予測は、様々な臨床的に利用可能なデータモダリティを統合することで強化される複雑な課題である。
本研究では3次元脳画像、臨床データ、画像から得られる特徴を組み合わせて、発症前の脳卒中リスク予測を改善する自己教師型マルチモーダルフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-14T22:00:37Z) - Leveraging Medical Foundation Model Features in Graph Neural Network-Based Retrieval of Breast Histopathology Images [1.48419209885019]
本稿では,胸部組織像検索のための新しいアテンションベース逆正則変分グラフオートエンコーダモデルを提案する。
UNIの特徴でトレーニングされた当社のトップパフォーマンスモデルでは,平均mAP/mMVスコアが96.7%/91.5%,97.6%/94.2%,BACHデータセットが97.6%/94.2%であった。
論文 参考訳(メタデータ) (2024-05-07T11:24:37Z) - Multibranch Generative Models for Multichannel Imaging with an Application to PET/CT Synergistic Reconstruction [42.95604565673447]
本稿では,マルチブランチ生成モデルを用いた医用画像の相乗的再構築のための新しい手法を提案する。
我々は,MNIST (Modified National Institute of Standards and Technology) とPET (positron emission tomography) とCT (Computed tomography) の2つのデータセットに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-04-12T18:21:08Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Domain Generalization for Mammographic Image Analysis with Contrastive
Learning [62.25104935889111]
効果的なディープラーニングモデルのトレーニングには、さまざまなスタイルと品質を備えた大規模なデータが必要である。
より優れたスタイルの一般化能力を備えた深層学習モデルを実現するために,新しいコントラスト学習法が開発された。
提案手法は,様々なベンダスタイルドメインのマンモグラムや,いくつかのパブリックデータセットを用いて,広範囲かつ厳密に評価されている。
論文 参考訳(メタデータ) (2023-04-20T11:40:21Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。