論文の概要: Medi-CAT: Contrastive Adversarial Training for Medical Image
Classification
- arxiv url: http://arxiv.org/abs/2311.00154v1
- Date: Tue, 31 Oct 2023 20:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 15:47:25.181278
- Title: Medi-CAT: Contrastive Adversarial Training for Medical Image
Classification
- Title(参考訳): メディCAT:医用画像分類のためのコントラスト対応トレーニング
- Authors: Pervaiz Iqbal Khan, Andreas Dengel, Sheraz Ahmed
- Abstract要約: 本稿では,医療画像データセットにおける過度に適合する現象を克服するためのトレーニング戦略であるMedi-CATを提案する。
特に、提案手法では、過度に適合するのを防ぐために、未適合で対角的かつ対照的な学習技術を克服するために、大規模な事前学習型視覚トランスフォーマーを用いている。
- 参考スコア(独自算出の注目度): 6.443303123637049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are not many large medical image datasets available. For these
datasets, too small deep learning models can't learn useful features, so they
don't work well due to underfitting, and too big models tend to overfit the
limited data. As a result, there is a compromise between the two issues. This
paper proposes a training strategy Medi-CAT to overcome the underfitting and
overfitting phenomena in medical imaging datasets. Specifically, the proposed
training methodology employs large pre-trained vision transformers to overcome
underfitting and adversarial and contrastive learning techniques to prevent
overfitting. The proposed method is trained and evaluated on four medical image
classification datasets from the MedMNIST collection. Our experimental results
indicate that the proposed approach improves the accuracy up to 2% on three
benchmark datasets compared to well-known approaches, whereas it increases the
performance up to 4.1% over the baseline methods.
- Abstract(参考訳): 医用画像の大規模なデータセットは多くない。
これらのデータセットでは、あまりに小さなディープラーニングモデルは有用な機能を学習できないため、不適合のためうまく動作せず、大きすぎるモデルは限られたデータに過剰に適合しがちです。
その結果、2つの問題の間に妥協が生じた。
本稿では,医療画像データセットにおける過度に適合する現象を克服するためのトレーニング戦略であるMedi-CATを提案する。
具体的には,事前学習した視覚トランスフォーマを用いて,不適合を克服し,不適合を回避し,相反的かつコントラスト的な学習手法を提案する。
本手法は,MedMNISTコレクションから4つの医用画像分類データセットをトレーニングし,評価する。
実験結果から,提案手法は既知の手法と比較して3つのベンチマークデータセットの精度を最大2%向上する一方,ベースライン手法よりも4.1%向上することが示唆された。
関連論文リスト
- Less is More: Selective Reduction of CT Data for Self-Supervised Pre-Training of Deep Learning Models with Contrastive Learning Improves Downstream Classification Performance [7.945551345449388]
現在の知見は、医用画像における対照的な事前トレーニングの可能性を示している。
医用画像の類似性は、医用画像領域における対照的な学習の成功を妨げていると仮定する。
医療用事前学習データセットの冗長性を同定・低減するために, 深層埋め込み, 情報理論, ハッシュに基づく様々な戦略を検討する。
論文 参考訳(メタデータ) (2024-10-18T15:08:05Z) - Text-guided Foundation Model Adaptation for Long-Tailed Medical Image Classification [4.6651139122498]
医学的文脈では、まれな疾患のラベルの少ない長いデータセットにおける不均衡なデータ分布は、ディープラーニングモデルの診断精度を著しく損なう。
最近のマルチモーダルテキスト画像管理基盤モデルは、効率的な表現学習を通じて、データの不足に対する新しい解決策を提供する。
長期医療画像分類のための新しいテキスト誘導基礎モデル適応法(TFA-LT)を提案する。
提案手法は27.1%の精度向上を実現し,本領域における基礎モデル適用の可能性を強調した。
論文 参考訳(メタデータ) (2024-08-27T04:18:18Z) - Boosting Few-Shot Learning with Disentangled Self-Supervised Learning and Meta-Learning for Medical Image Classification [8.975676404678374]
低データ体制下で訓練されたモデルの性能と一般化能力を改善するための戦略を提案する。
提案手法は、自己教師付き学習環境において学習した特徴をアンタングル化して、下流タスクの表現の堅牢性を向上する事前学習段階から開始する。
次に、メタファインニングのステップを導入し、メタトレーニングとメタテストフェーズの関連クラスを活用するが、レベルは変化する。
論文 参考訳(メタデータ) (2024-03-26T09:36:20Z) - Self-Supervised Pre-Training with Contrastive and Masked Autoencoder
Methods for Dealing with Small Datasets in Deep Learning for Medical Imaging [8.34398674359296]
医用画像の深層学習は、診断ミスのリスクを最小限に抑え、放射線医の作業量を減らし、診断を加速する可能性がある。
このようなディープラーニングモデルのトレーニングには,すべてのトレーニングサンプルに対するアノテーションを備えた,大規模かつ正確なデータセットが必要です。
この課題に対処するために、ディープラーニングモデルは、自己教師付き学習の分野からのメソッドを使用してアノテーションなしで、大規模な画像データセット上で事前トレーニングすることができる。
論文 参考訳(メタデータ) (2023-08-12T11:31:01Z) - Medical Federated Model with Mixture of Personalized and Sharing
Components [31.068735334318088]
本稿では,その問題に対処するための新しい個人化学習フレームワークを提案する。
ローカルデータ間の類似性を認識したパーソナライズされたモデルが得られる。
また,計算効率を大幅に向上させる効率的な計算コスト削減手法を提案する。
論文 参考訳(メタデータ) (2023-06-26T07:50:32Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Density-Aware Personalized Training for Risk Prediction in Imbalanced
Medical Data [89.79617468457393]
不均衡率(クラス密度差)のトレーニングモデルは、最適以下の予測につながる可能性がある。
この不均衡問題に対するモデルトレーニングのためのフレームワークを提案する。
実世界の医療データセットにおけるモデルの性能向上を実証する。
論文 参考訳(メタデータ) (2022-07-23T00:39:53Z) - Learning Discriminative Representation via Metric Learning for
Imbalanced Medical Image Classification [52.94051907952536]
本稿では,特徴抽出器がより識別的な特徴表現を抽出するのを助けるために,2段階フレームワークの第1段階にメトリック学習を組み込むことを提案する。
主に3つの医用画像データセットを用いて実験したところ、提案手法は既存の1段階と2段階のアプローチより一貫して優れていた。
論文 参考訳(メタデータ) (2022-07-14T14:57:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。