論文の概要: Impact of Clinical Image Quality on Efficient Foundation Model Finetuning
- arxiv url: http://arxiv.org/abs/2508.11864v1
- Date: Sat, 16 Aug 2025 01:33:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.42076
- Title: Impact of Clinical Image Quality on Efficient Foundation Model Finetuning
- Title(参考訳): 画像品質が高能率ファンデーションモデルファインタニングに及ぼす影響
- Authors: Yucheng Tang, Pawel Rajwa, Alexander Ng, Yipei Wang, Wen Yan, Natasha Thorley, Aqua Asif, Clare Allen, Louise Dickinson, Francesco Giganti, Shonit Punwani, Daniel C. Alexander, Veeru Kasivisvanathan, Yipeng Hu,
- Abstract要約: 医用画像の基礎モデルではラベル効率が有望であることが示され、注釈付きデータのごく一部で下流のパフォーマンスが向上した。
本稿では、大規模な前立腺MRIデータセットに基づいて事前訓練されたドメイン固有視覚基盤モデルProFoundを用いて、前立腺MRIにおいてこれを評価する。
- 参考スコア(独自算出の注目度): 37.729881862462925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models in medical imaging have shown promising label efficiency, achieving high downstream performance with only a fraction of annotated data. Here, we evaluate this in prostate multiparametric MRI using ProFound, a domain-specific vision foundation model pretrained on large-scale prostate MRI datasets. We investigate how variable image quality affects label-efficient finetuning by measuring the generalisability of finetuned models. Experiments systematically vary high-/low-quality image ratios in finetuning and evaluation sets. Our findings indicate that image quality distribution and its finetune-and-test mismatch significantly affect model performance. In particular: a) Varying the ratio of high- to low-quality images between finetuning and test sets leads to notable differences in downstream performance; and b) The presence of sufficient high-quality images in the finetuning set is critical for maintaining strong performance, whilst the importance of matched finetuning and testing distribution varies between different downstream tasks, such as automated radiology reporting and prostate cancer detection.When quality ratios are consistent, finetuning needs far less labeled data than training from scratch, but label efficiency depends on image quality distribution. Without enough high-quality finetuning data, pretrained models may fail to outperform those trained without pretraining. This highlights the importance of assessing and aligning quality distributions between finetuning and deployment, and the need for quality standards in finetuning data for specific downstream tasks. Using ProFound, we show the value of quantifying image quality in both finetuning and deployment to fully realise the data and compute efficiency benefits of foundation models.
- Abstract(参考訳): 医用画像の基礎モデルではラベル効率が有望であることが示され、注釈付きデータのごく一部で下流のパフォーマンスが向上した。
本稿では、大規模な前立腺MRIデータセットに基づいて事前訓練されたドメイン固有視覚基盤モデルProFoundを用いて、前立腺MRIにおいてこれを評価する。
可変画像品質がラベル効率のファインタニングにどう影響するかを,微調整モデルの一般化可能性を測定することによって検討する。
実験は、微調整と評価セットにおいて、高画質/低画質の画像比を体系的に変化させる。
以上の結果から,画像品質分布とその微視的ミスマッチがモデル性能に大きく影響していることが示唆された。
特に
イ 微調整と試験セットの高画質画像の比率を変動させることにより、下流のパフォーマンスに顕著な差が生じること。
b) ファインタニングセットに十分な高品質な画像が存在することは、高い性能を維持する上で重要である一方で、マッチングされた微調整とテストの分布の重要性は、自動放射線診断や前立腺がん検出など、下流のタスクによって異なる。品質比が一貫している場合、ファインタニングはスクラッチからのトレーニングよりもラベル付きデータの方がはるかに少ないが、ラベル効率は画像品質分布に依存している。
十分な高品質の微調整データがないと、事前訓練されたモデルは事前訓練なしで訓練されたモデルよりパフォーマンスが良くない可能性がある。
これは、微調整とデプロイメントの間の品質分布の評価と調整の重要性を強調し、特定の下流タスクのためにデータを微調整する品質標準の必要性を強調している。
ProFoundを用いて、ファインタニングとデプロイメントの両方において、画像品質の定量化の価値を示し、基礎モデルのデータの完全実現と計算効率の利点を示す。
関連論文リスト
- Beyond Pixels: Medical Image Quality Assessment with Implicit Neural Representations [2.0934875997852096]
アーティファクトは、診断精度と下流分析に影響を及ぼす医療画像において重要な課題となる。
画像品質評価に暗黙的ニューラル表現(INR)を用いることを提案する。
本手法は合成人工物パターンを用いてACDCデータセットを用いて評価する。
論文 参考訳(メタデータ) (2025-08-07T09:00:06Z) - Metrics that matter: Evaluating image quality metrics for medical image generation [48.85783422900129]
本研究は、脳MRIデータを用いて、一般的に使用される非参照画像品質指標を包括的に評価する。
本研究は, ノイズ, 分布変化, および臨床的に関係のある不正確さを模倣した形態的変化を含む, 様々な課題に対する計量感度を評価する。
論文 参考訳(メタデータ) (2025-05-12T01:57:25Z) - DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [73.6767681305851]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Test Time Adaptation for Blind Image Quality Assessment [20.50795362928567]
本報告では, ブラインドIQAにおけるTTAを実現するために, バッチとサンプルレベルに2つの新しい品質関連補助タスクを導入する。
実験の結果,テスト分布から少量の画像を使用しても,性能の大幅な向上が期待できることがわかった。
論文 参考訳(メタデータ) (2023-07-27T09:43:06Z) - A Decoupled Uncertainty Model for MRI Segmentation Quality Estimation [4.104181348044472]
タスクと異なるk空間アーティファクトに関連する不確実性のソースを分離する新しいCNNアーキテクチャを提案する。
課題の観点から,我々の不確実性予測はMRIの画質をよりよく推定できることを示す。
論文 参考訳(メタデータ) (2021-09-06T12:54:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。