論文の概要: Parameter-Efficient Fine-Tuning for Medical Image Analysis: The Missed
Opportunity
- arxiv url: http://arxiv.org/abs/2305.08252v2
- Date: Tue, 23 May 2023 11:45:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 23:26:30.052521
- Title: Parameter-Efficient Fine-Tuning for Medical Image Analysis: The Missed
Opportunity
- Title(参考訳): 医用画像解析のためのパラメーター効率の微調整:逃避機会
- Authors: Raman Dutt, Linus Ericsson, Pedro Sanchez, Sotirios A. Tsaftaris,
Timothy Hospedales
- Abstract要約: 我々は総合的な評価を行う。
多様な医用画像解析タスクのためのPEFT(Efficient Fine-Tuning)技術
特定のシナリオでは最大22%の性能向上を示し,医療用テキスト・画像生成におけるPEFTの有効性を示した。
- 参考スコア(独自算出の注目度): 17.296879062020228
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a comprehensive evaluation of Parameter-Efficient Fine-Tuning
(PEFT) techniques for diverse medical image analysis tasks. PEFT is
increasingly exploited as a valuable approach for knowledge transfer from
pre-trained models in natural language processing, vision, speech, and
cross-modal tasks, such as vision-language and text-to-image generation.
However, its application in medical image analysis remains relatively
unexplored. As foundation models are increasingly exploited in the medical
domain, it is crucial to investigate and comparatively assess various
strategies for knowledge transfer that can bolster a range of downstream tasks.
Our study, the first of its kind (to the best of our knowledge), evaluates 16
distinct PEFT methodologies proposed for convolutional and transformer-based
networks, focusing on image classification and text-to-image generation tasks
across six medical datasets ranging in size, modality, and complexity. Through
a battery of more than 600 controlled experiments, we demonstrate performance
gains of up to 22% under certain scenarios and demonstrate the efficacy of PEFT
for medical text-to-image generation. Further, we reveal the instances where
PEFT methods particularly dominate over conventional fine-tuning approaches by
studying their relationship with downstream data volume.
- Abstract(参考訳): 本稿では,多種多様な医用画像解析タスクにおけるパラメータ効率向上技術(PEFT)の総合評価について述べる。
PEFTは、自然言語処理、ビジョン、スピーチ、そして視覚言語やテキスト・ツー・イメージ生成のようなモーダルなタスクにおいて、事前訓練されたモデルから知識を伝達するための貴重なアプローチとして、ますます活用されている。
しかし、医用画像解析への応用はいまだに未解明である。
基礎モデルが医学領域でますます活用されるようになるにつれて、ダウンストリームタスクの範囲を補強する知識伝達の様々な戦略を調査し、比較評価することが重要となる。
コンボリューションとトランスフォーマーに基づくネットワークのために提案された16種類のPEFT手法を,サイズ,モダリティ,複雑性の6つの医学データセットを対象とした画像分類とテキスト・ツー・イメージ生成タスクに着目し,本研究で評価した。
600以上の制御された実験により,特定のシナリオ下では最大22%の性能向上を示し,医療用テキスト・画像生成におけるPEFTの有効性を示した。
さらに, 従来の微調整手法よりもPEFT法が特に優位である事例を明らかにし, 下流データ量との関係について検討する。
関連論文リスト
- MedFLIP: Medical Vision-and-Language Self-supervised Fast Pre-Training
with Masked Autoencoder [28.17601348122799]
本稿では,医療分析のための高速言語画像事前学習手法であるMedFLIPを紹介する。
交差ドメインを用いたゼロショット学習のためのMAEを探索し、限られたデータから学習するモデル能力を向上する。
最後に,医療画像解析におけるゼロショット性能の向上を言語を用いて検証する。
論文 参考訳(メタデータ) (2024-03-07T16:11:43Z) - Adversarial-Robust Transfer Learning for Medical Imaging via Domain
Assimilation [17.46080957271494]
医用画像が公開されていないため、現代のアルゴリズムは、大量の自然画像に基づいて事前訓練されたモデルに依存するようになった。
自然画像と医療画像の間に重要なエムドメインの相違があり、AIモデルは敵の攻撃に対するエムの脆弱性を高める。
本稿では,テクスチャと色適応を伝達学習に導入する Em ドメイン同化手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:39:15Z) - EAFP-Med: An Efficient Adaptive Feature Processing Module Based on
Prompts for Medical Image Detection [27.783012550610387]
領域間適応型医用画像検出は、様々な医用画像技術における病変表現の違いにより困難である。
医用画像検出のためのプロンプトに基づく効率的な適応的特徴処理モジュールであるEAFP-Medを提案する。
EAFP-Medは、プロンプトに基づいて様々な医用画像から病変の特徴を効率的に抽出し、モデルの性能を高めることができる。
論文 参考訳(メタデータ) (2023-11-27T05:10:15Z) - Pick the Best Pre-trained Model: Towards Transferability Estimation for
Medical Image Segmentation [20.03177073703528]
転送学習は、難しい医用画像分割タスクのために、ディープニューラルネットワークをトレーニングする上で重要なテクニックである。
医用画像セグメンテーションのための新しい転送可能性推定法を提案する。
医用画像のセグメンテーションにおける転送可能性推定のアルゴリズムを網羅した手法を提案する。
論文 参考訳(メタデータ) (2023-07-22T01:58:18Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - MedFMC: A Real-world Dataset and Benchmark For Foundation Model
Adaptation in Medical Image Classification [41.16626194300303]
ファンデーションモデルは、多くの場合、大規模なデータで事前訓練されているが、様々なビジョンや言語アプリケーションのジャンプ開始において、最も成功している。
最近の進歩により、下流タスクにおける基礎モデルの適応は、少数のトレーニングサンプルだけで効率的に行えるようになった。
しかし, 医用画像解析におけるそのような学習パラダイムの適用は, 一般に公開されているデータやベンチマークが不足しているため, 依然として少ない。
論文 参考訳(メタデータ) (2023-06-16T01:46:07Z) - Domain Generalization for Mammographic Image Analysis with Contrastive
Learning [62.25104935889111]
効果的なディープラーニングモデルのトレーニングには、さまざまなスタイルと品質を備えた大規模なデータが必要である。
より優れたスタイルの一般化能力を備えた深層学習モデルを実現するために,新しいコントラスト学習法が開発された。
提案手法は,様々なベンダスタイルドメインのマンモグラムや,いくつかのパブリックデータセットを用いて,広範囲かつ厳密に評価されている。
論文 参考訳(メタデータ) (2023-04-20T11:40:21Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。