論文の概要: From Embeddings to Accuracy: Comparing Foundation Models for Radiographic Classification
- arxiv url: http://arxiv.org/abs/2505.10823v1
- Date: Fri, 16 May 2025 03:39:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.968714
- Title: From Embeddings to Accuracy: Comparing Foundation Models for Radiographic Classification
- Title(参考訳): 埋め込みから精度:X線学的分類の基礎モデルの比較
- Authors: Xue Li, Jameson Merkow, Noel C. F. Codella, Alberto Santamaria-Pang, Naiteek Sangani, Alexander Ersoy, Christopher Burt, John W. Garrett, Richard J. Bruce, Joshua D. Warner, Tyler Bradshaw, Ivan Tarapov, Matthew P. Lungren, Alan B. McMillan,
- Abstract要約: 広範なデータセットに基づいて事前訓練されたファンデーションモデルは、大幅に高度な機械学習を備えている。
本研究は、汎用と医療分野固有の基礎モデルの両方から導かれる埋め込みの有用性を評価する。
- 参考スコア(独自算出の注目度): 34.081400027516224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models, pretrained on extensive datasets, have significantly advanced machine learning by providing robust and transferable embeddings applicable to various domains, including medical imaging diagnostics. This study evaluates the utility of embeddings derived from both general-purpose and medical domain-specific foundation models for training lightweight adapter models in multi-class radiography classification, focusing specifically on tube placement assessment. A dataset comprising 8842 radiographs classified into seven distinct categories was employed to extract embeddings using six foundation models: DenseNet121, BiomedCLIP, Med-Flamingo, MedImageInsight, Rad-DINO, and CXR-Foundation. Adapter models were subsequently trained using classical machine learning algorithms. Among these combinations, MedImageInsight embeddings paired with an support vector machine adapter yielded the highest mean area under the curve (mAUC) at 93.8%, followed closely by Rad-DINO (91.1%) and CXR-Foundation (89.0%). In comparison, BiomedCLIP and DenseNet121 exhibited moderate performance with mAUC scores of 83.0% and 81.8%, respectively, whereas Med-Flamingo delivered the lowest performance at 75.1%. Notably, most adapter models demonstrated computational efficiency, achieving training within one minute and inference within seconds on CPU, underscoring their practicality for clinical applications. Furthermore, fairness analyses on adapters trained on MedImageInsight-derived embeddings indicated minimal disparities, with gender differences in performance within 2% and standard deviations across age groups not exceeding 3%. These findings confirm that foundation model embeddings-especially those from MedImageInsight-facilitate accurate, computationally efficient, and equitable diagnostic classification using lightweight adapters for radiographic image analysis.
- Abstract(参考訳): 広範なデータセットに基づいて事前訓練されたファンデーションモデルは、医療画像診断など、さまざまな領域に適用可能な堅牢で転送可能な埋め込みを提供することで、機械学習を著しく進歩させた。
本研究は,マルチクラスラジオグラフィー分類における軽量アダプタモデルの訓練のための汎用および医用ドメイン固有の基礎モデルから導かれる埋め込みの有用性を,特に管配置評価に焦点を当てて評価する。
DenseNet121、BiomedCLIP、Med-Flamingo、MedImageInsight、Rad-DINO、CXR-Foundationの6つの基礎モデルを用いて,7つのカテゴリに分類した8842個のX線写真からなるデータセットを用いた。
適応モデルはその後、古典的な機械学習アルゴリズムを用いて訓練された。
これらの組み合わせの中で、MedImageInsightとサポートベクターマシンアダプタの組み合わせは、曲線(mAUC)で93.8%、Rad-DINO(91.1%)とCXR-Foundation(89.0%)が続いた。
一方、BiomedCLIPとDenseNet121はmAUCスコアが83.0%、81.8%、Med-Flamingoは75.1%だった。
特に、ほとんどのアダプタモデルは、計算効率を示し、1分以内のトレーニングを達成し、CPU上で数秒以内の推論を行い、臨床応用の実用性を実証した。
さらに,MedImageInsight由来の埋め込みで訓練したアダプタの公正度分析では,性別差が2%未満,標準偏差が3%未満であった。
これらの結果から,MedImageInsight-facilitate accurate, computely efficient, and equitable diagnosis classification using light adapters for radiographic image analysis。
関連論文リスト
- Enhanced Multi-Class Classification of Gastrointestinal Endoscopic Images with Interpretable Deep Learning Model [0.7349657385817541]
本研究は,Kvasirデータセットから8000個のラベル付き内視鏡画像を用いて分類精度を向上させる新しい手法を提案する。
提案したアーキテクチャは、適度なモデルの複雑さを保ちながら、データ拡張への依存をなくす。
テスト精度は94.25%、精度は94.29%、リコールは94.24%である。
論文 参考訳(メタデータ) (2025-03-02T08:07:50Z) - MedFocusCLIP : Improving few shot classification in medical datasets using pixel wise attention [1.2277343096128712]
本稿では,CLIP(Contrastive Language- Image Pretraining)における視覚的エンコーダを支援する視覚的プロンプトキューとして,Segment Anything Model 2(SAM2)の高度なセグメンテーション機能を活用することを提案する。
これにより、視覚的に類似したバックグラウンド機能に気を散らすことなく、非常に差別的な領域に集中することができる。
提案手法は,X線,CTスキャン,MRI画像など多種多様な医療データセットを用いて評価し,提案手法の精度(71%,81%,86%,58%)を報告する。
論文 参考訳(メタデータ) (2025-01-07T14:49:12Z) - Embeddings are all you need! Achieving High Performance Medical Image Classification through Training-Free Embedding Analysis [0.0]
医療画像のための人工知能(AI)と機械学習(ML)モデルの開発は通常、大規模なデータセットに対する広範なトレーニングとテストを含む。
従来の訓練手順を埋め込み型アプローチで置き換える可能性について検討した。
論文 参考訳(メタデータ) (2024-12-12T16:59:37Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Improving Disease Classification Performance and Explainability of Deep
Learning Models in Radiology with Heatmap Generators [0.0]
3つの実験セットがU-Netアーキテクチャを用いて行われ、分類性能が向上した。
最大の改善点は「肺炎」クラスと「CHF」クラスであり、ベースラインモデルは分類に最も苦労した。
論文 参考訳(メタデータ) (2022-06-28T13:03:50Z) - GSDA: Generative Adversarial Network-based Semi-Supervised Data
Augmentation for Ultrasound Image Classification [8.554511144730387]
医用超音波(英語: Medical Ultrasound、略称:US)は、臨床において最も広く用いられる画像のモダリティの一つである。
ディープラーニング(DL)モデルは、先進的な米国の画像分析ツールとして機能するが、大規模なデータセットの不足により、その性能は大幅に制限される。
我々はGANに基づく半教師付きデータ拡張法を開発した。
論文 参考訳(メタデータ) (2022-03-11T16:52:14Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。