論文の概要: Medi-CAT: Contrastive Adversarial Training for Medical Image
Classification
- arxiv url: http://arxiv.org/abs/2311.00154v1
- Date: Tue, 31 Oct 2023 20:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 15:47:25.181278
- Title: Medi-CAT: Contrastive Adversarial Training for Medical Image
Classification
- Title(参考訳): メディCAT:医用画像分類のためのコントラスト対応トレーニング
- Authors: Pervaiz Iqbal Khan, Andreas Dengel, Sheraz Ahmed
- Abstract要約: 本稿では,医療画像データセットにおける過度に適合する現象を克服するためのトレーニング戦略であるMedi-CATを提案する。
特に、提案手法では、過度に適合するのを防ぐために、未適合で対角的かつ対照的な学習技術を克服するために、大規模な事前学習型視覚トランスフォーマーを用いている。
- 参考スコア(独自算出の注目度): 6.443303123637049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are not many large medical image datasets available. For these
datasets, too small deep learning models can't learn useful features, so they
don't work well due to underfitting, and too big models tend to overfit the
limited data. As a result, there is a compromise between the two issues. This
paper proposes a training strategy Medi-CAT to overcome the underfitting and
overfitting phenomena in medical imaging datasets. Specifically, the proposed
training methodology employs large pre-trained vision transformers to overcome
underfitting and adversarial and contrastive learning techniques to prevent
overfitting. The proposed method is trained and evaluated on four medical image
classification datasets from the MedMNIST collection. Our experimental results
indicate that the proposed approach improves the accuracy up to 2% on three
benchmark datasets compared to well-known approaches, whereas it increases the
performance up to 4.1% over the baseline methods.
- Abstract(参考訳): 医用画像の大規模なデータセットは多くない。
これらのデータセットでは、あまりに小さなディープラーニングモデルは有用な機能を学習できないため、不適合のためうまく動作せず、大きすぎるモデルは限られたデータに過剰に適合しがちです。
その結果、2つの問題の間に妥協が生じた。
本稿では,医療画像データセットにおける過度に適合する現象を克服するためのトレーニング戦略であるMedi-CATを提案する。
具体的には,事前学習した視覚トランスフォーマを用いて,不適合を克服し,不適合を回避し,相反的かつコントラスト的な学習手法を提案する。
本手法は,MedMNISTコレクションから4つの医用画像分類データセットをトレーニングし,評価する。
実験結果から,提案手法は既知の手法と比較して3つのベンチマークデータセットの精度を最大2%向上する一方,ベースライン手法よりも4.1%向上することが示唆された。
関連論文リスト
- Boosting Few-Shot Learning with Disentangled Self-Supervised Learning and Meta-Learning for Medical Image Classification [8.975676404678374]
低データ体制下で訓練されたモデルの性能と一般化能力を改善するための戦略を提案する。
提案手法は、自己教師付き学習環境において学習した特徴をアンタングル化して、下流タスクの表現の堅牢性を向上する事前学習段階から開始する。
次に、メタファインニングのステップを導入し、メタトレーニングとメタテストフェーズの関連クラスを活用するが、レベルは変化する。
論文 参考訳(メタデータ) (2024-03-26T09:36:20Z) - Plug-and-Play Feature Generation for Few-Shot Medical Image
Classification [23.969183389866686]
限られた訓練データを用いた医用画像分類におけるモデル一般化と実用性の向上に大きな可能性を秘めている。
MedMFGは,限られたサンプルから十分なクラス識別機能を生成するために設計された,フレキシブルで軽量なプラグアンドプレイ方式である。
論文 参考訳(メタデータ) (2023-10-14T02:36:14Z) - Self-Supervised Pre-Training with Contrastive and Masked Autoencoder
Methods for Dealing with Small Datasets in Deep Learning for Medical Imaging [8.34398674359296]
医用画像の深層学習は、診断ミスのリスクを最小限に抑え、放射線医の作業量を減らし、診断を加速する可能性がある。
このようなディープラーニングモデルのトレーニングには,すべてのトレーニングサンプルに対するアノテーションを備えた,大規模かつ正確なデータセットが必要です。
この課題に対処するために、ディープラーニングモデルは、自己教師付き学習の分野からのメソッドを使用してアノテーションなしで、大規模な画像データセット上で事前トレーニングすることができる。
論文 参考訳(メタデータ) (2023-08-12T11:31:01Z) - Medical Federated Model with Mixture of Personalized and Sharing
Components [31.068735334318088]
本稿では,その問題に対処するための新しい個人化学習フレームワークを提案する。
ローカルデータ間の類似性を認識したパーソナライズされたモデルが得られる。
また,計算効率を大幅に向上させる効率的な計算コスト削減手法を提案する。
論文 参考訳(メタデータ) (2023-06-26T07:50:32Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Significantly improving zero-shot X-ray pathology classification via
fine-tuning pre-trained image-text encoders [51.14431540035141]
下流のゼロショット病理分類性能を改善するために,文サンプリングと正対損失緩和に基づく新たな微調整手法を提案する。
4種類の胸部X線データセットを用いてゼロショット病理分類性能を劇的に改善した。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Density-Aware Personalized Training for Risk Prediction in Imbalanced
Medical Data [89.79617468457393]
不均衡率(クラス密度差)のトレーニングモデルは、最適以下の予測につながる可能性がある。
この不均衡問題に対するモデルトレーニングのためのフレームワークを提案する。
実世界の医療データセットにおけるモデルの性能向上を実証する。
論文 参考訳(メタデータ) (2022-07-23T00:39:53Z) - Learning Discriminative Representation via Metric Learning for
Imbalanced Medical Image Classification [52.94051907952536]
本稿では,特徴抽出器がより識別的な特徴表現を抽出するのを助けるために,2段階フレームワークの第1段階にメトリック学習を組み込むことを提案する。
主に3つの医用画像データセットを用いて実験したところ、提案手法は既存の1段階と2段階のアプローチより一貫して優れていた。
論文 参考訳(メタデータ) (2022-07-14T14:57:01Z) - Deep Multi-Scale Resemblance Network for the Sub-class Differentiation
of Adrenal Masses on Computed Tomography Images [16.041873352037594]
副腎の腫瘤は良性または悪性であり、良性は様々な有病率を持つ。
CNNは、大規模な医用画像訓練データセットのクラス間差を最大化する最先端技術である。
副腎腫瘤に対するCNNの応用は、大きなクラス内変異、大きなクラス間類似性、不均衡なトレーニングデータにより困難である。
そこで我々は,これらの制約を克服する深層マルチスケール類似ネットワーク(DMRN)を開発し,クラス内類似性を評価するためにペアCNNを利用した。
論文 参考訳(メタデータ) (2020-07-29T06:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。