論文の概要: Plug-and-Play Feature Generation for Few-Shot Medical Image
Classification
- arxiv url: http://arxiv.org/abs/2310.09471v1
- Date: Sat, 14 Oct 2023 02:36:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 20:11:02.986009
- Title: Plug-and-Play Feature Generation for Few-Shot Medical Image
Classification
- Title(参考訳): ファウショット医用画像分類のためのプラグアンドプレイ特徴生成
- Authors: Qianyu Guo, Huifang Du, Xing Jia, Shuyong Gao, Yan Teng, Haofen Wang,
Wenqiang Zhang
- Abstract要約: 限られた訓練データを用いた医用画像分類におけるモデル一般化と実用性の向上に大きな可能性を秘めている。
MedMFGは,限られたサンプルから十分なクラス識別機能を生成するために設計された,フレキシブルで軽量なプラグアンドプレイ方式である。
- 参考スコア(独自算出の注目度): 23.969183389866686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot learning (FSL) presents immense potential in enhancing model
generalization and practicality for medical image classification with limited
training data; however, it still faces the challenge of severe overfitting in
classifier training due to distribution bias caused by the scarce training
samples. To address the issue, we propose MedMFG, a flexible and lightweight
plug-and-play method designed to generate sufficient class-distinctive features
from limited samples. Specifically, MedMFG first re-represents the limited
prototypes to assign higher weights for more important information features.
Then, the prototypes are variationally generated into abundant effective
features. Finally, the generated features and prototypes are together to train
a more generalized classifier. Experiments demonstrate that MedMFG outperforms
the previous state-of-the-art methods on cross-domain benchmarks involving the
transition from natural images to medical images, as well as medical images
with different lesions. Notably, our method achieves over 10% performance
improvement compared to several baselines. Fusion experiments further validate
the adaptability of MedMFG, as it seamlessly integrates into various backbones
and baselines, consistently yielding improvements of over 2.9% across all
results.
- Abstract(参考訳): 少数ショット学習(英語版)(fsl)は、限られたトレーニングデータで医用画像分類のモデルの一般化と実用性を高める大きな可能性を示しているが、不足したトレーニングサンプルによる分布バイアスによる分類訓練の過度な過剰化の課題に直面している。
この問題を解決するために,限られたサンプルから十分なクラス識別機能を生成するための,柔軟で軽量なプラグアンドプレイ方式であるMedMFGを提案する。
特に、MedMFGは、より重要な情報機能のために、より重いものを割り当てるために、まず限定されたプロトタイプを再表現する。
そして、プロトタイプは、豊富な有効機能に変異的に生成される。
最後に、生成された機能とプロトタイプが一緒になり、より一般化された分類器を訓練する。
実験により、MedMFGは、自然画像から医療画像への移行や、病変の異なる医療画像を含むクロスドメインベンチマークにおいて、これまでの最先端の手法よりも優れていることが示された。
特に本手法は,複数のベースラインと比較して10%以上の性能向上を達成している。
核融合実験により、MedMFGは様々なバックボーンやベースラインにシームレスに統合され、全ての結果に対して2.9%以上の改善をもたらすため、さらに適合性を検証することができる。
関連論文リスト
- Meta-Transfer Derm-Diagnosis: Exploring Few-Shot Learning and Transfer Learning for Skin Disease Classification in Long-Tail Distribution [1.8024397171920885]
本研究は, エピソードおよび従来の訓練手法の利点と欠点を詳細に検討する。
最小限のラベル付き例で、我々のモデルは以前トレーニングされたモデルと比較して、かなりの情報獲得と性能向上を示した。
実験は, 最大10例の2方向から5方向の分類から, 従来の移動学習手法における成功率の増大を示した。
論文 参考訳(メタデータ) (2024-04-25T17:56:45Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - TransMed: Large Language Models Enhance Vision Transformer for
Biomedical Image Classification [11.202967500669402]
ごく少数のサンプルでモデルをタスクに適応させるために、いくつかのショットラーニングが研究されている。
大規模言語モデル(LLM)を用いてラベルを文脈化する新しい手法を提案する。
以上の結果から,LLMが生成するコンテキストは,類似のカテゴリに対する意味埋め込みの識別を著しく向上させることが明らかとなった。
論文 参考訳(メタデータ) (2023-12-12T09:58:07Z) - EMIT-Diff: Enhancing Medical Image Segmentation via Text-Guided
Diffusion Model [4.057796755073023]
EMIT-Diffと呼ばれる医用画像合成のための制御可能な拡散モデルを開発した。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
提案手法では, 合成試料が医療上の制約に適合することを確実にする。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - DiffMIC: Dual-Guidance Diffusion Network for Medical Image
Classification [32.67098520984195]
一般医用画像分類のための拡散モデル(DiffMIC)を提案する。
実験の結果,DiffMICは最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-03-19T09:15:45Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - ProCo: Prototype-aware Contrastive Learning for Long-tailed Medical
Image Classification [12.399428395862639]
我々は、長い尾の医療不均衡問題に取り組むために、対照的な学習を採用する。
全体的なフレームワーク、すなわちPrototype-aware Contrastive Learning (ProCo)は、単一のステージパイプラインとして統合されている。
提案手法は既存の最先端手法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-01T02:24:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。