論文の概要: Applications of Sequential Learning for Medical Image Classification
- arxiv url: http://arxiv.org/abs/2309.14591v1
- Date: Tue, 26 Sep 2023 00:46:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 15:26:16.371112
- Title: Applications of Sequential Learning for Medical Image Classification
- Title(参考訳): 医用画像分類における逐次学習の応用
- Authors: Sohaib Naim and Brian Caffo and Haris I Sair and Craig K Jones
- Abstract要約: 我々は,少量の医用画像データの連続的トレーニングのためのニューラルネットワークトレーニングフレームワークを開発した。
過度な適合、破滅的な忘れ、概念の漂流といった、逐次学習を妨げる問題に対処する。
- 参考スコア(独自算出の注目度): 0.13191970195165517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: The aim of this work is to develop a neural network training
framework for continual training of small amounts of medical imaging data and
create heuristics to assess training in the absence of a hold-out validation or
test set.
Materials and Methods: We formulated a retrospective sequential learning
approach that would train and consistently update a model on mini-batches of
medical images over time. We address problems that impede sequential learning
such as overfitting, catastrophic forgetting, and concept drift through PyTorch
convolutional neural networks (CNN) and publicly available Medical MNIST and
NIH Chest X-Ray imaging datasets. We begin by comparing two methods for a
sequentially trained CNN with and without base pre-training. We then transition
to two methods of unique training and validation data recruitment to estimate
full information extraction without overfitting. Lastly, we consider an example
of real-life data that shows how our approach would see mainstream research
implementation.
Results: For the first experiment, both approaches successfully reach a ~95%
accuracy threshold, although the short pre-training step enables sequential
accuracy to plateau in fewer steps. The second experiment comparing two methods
showed better performance with the second method which crosses the ~90%
accuracy threshold much sooner. The final experiment showed a slight advantage
with a pre-training step that allows the CNN to cross ~60% threshold much
sooner than without pre-training.
Conclusion: We have displayed sequential learning as a serviceable
multi-classification technique statistically comparable to traditional CNNs
that can acquire data in small increments feasible for clinically realistic
scenarios.
- Abstract(参考訳): 目的:本研究の目的は,少量の医用画像データの連続的トレーニングのためのニューラルネットワークトレーニングフレームワークを開発し,ホールドアウト検証やテストセットがない場合のトレーニングを評価するヒューリスティックスを作成することである。
材料と方法: 時間とともに医療画像のミニバッチのモデルをトレーニングし、継続的に更新するレトロスペクティブシーケンシャルな学習アプローチを定式化した。
我々は,PyTorch畳み込みニューラルネットワーク (CNN) や医療用MNISTおよびNIH Chest X-Ray画像データセットを通じて,過度に適合する,破滅的な忘れ込み,概念の漂流といった逐次学習を妨げる問題に対処する。
まず、逐次訓練されたCNNの2つの方法と、ベースとなる事前学習の有無を比較する。
次に、2つのユニークなトレーニングと検証データリクルートに移行し、オーバーフィットせずに完全な情報抽出を推定する。
最後に,本手法が主流的な研究手法になることを示す実生活データの一例について考察する。
結果: 最初の実験では, いずれも95%の精度のしきい値に達したが, 短時間の事前学習ステップでは, より少ないステップで逐次精度が向上した。
2つの手法を比較した2つ目の実験は、90%の精度閾値をはるかに早く越える2つ目の方法よりも優れた性能を示した。
最後の実験では、cnnが事前トレーニングなしで60%のしきい値を超えることができるプリトレーニングステップの利点が示されました。
結論: シーケンシャルラーニングは従来のCNNと統計的に比較して, 臨床的に現実的なシナリオで実現可能な小さなインクリメントでデータを取得することができる。
関連論文リスト
- Boosting Few-Shot Learning with Disentangled Self-Supervised Learning and Meta-Learning for Medical Image Classification [8.975676404678374]
低データ体制下で訓練されたモデルの性能と一般化能力を改善するための戦略を提案する。
提案手法は、自己教師付き学習環境において学習した特徴をアンタングル化して、下流タスクの表現の堅牢性を向上する事前学習段階から開始する。
次に、メタファインニングのステップを導入し、メタトレーニングとメタテストフェーズの関連クラスを活用するが、レベルは変化する。
論文 参考訳(メタデータ) (2024-03-26T09:36:20Z) - Are Deep Learning Classification Results Obtained on CT Scans Fair and
Interpretable? [0.0]
ほとんどの肺結節分類論文は、ディープラーニングを用いてランダムにシャッフルし、それをトレーニング、検証、テストセットに分割する。
対照的に、厳密な患者レベルの分離で訓練されたディープニューラルネットワークは、新しい患者画像が検査された場合でも、正確性を維持する。
厳密な患者レベルの分離で訓練されたディープニューラルネットワークの活性化のヒートマップの可視化は、関連する結節に対する集中度が高いことを示している。
論文 参考訳(メタデータ) (2023-09-22T05:57:25Z) - Self-Supervised Pre-Training with Contrastive and Masked Autoencoder
Methods for Dealing with Small Datasets in Deep Learning for Medical Imaging [8.34398674359296]
医用画像の深層学習は、診断ミスのリスクを最小限に抑え、放射線医の作業量を減らし、診断を加速する可能性がある。
このようなディープラーニングモデルのトレーニングには,すべてのトレーニングサンプルに対するアノテーションを備えた,大規模かつ正確なデータセットが必要です。
この課題に対処するために、ディープラーニングモデルは、自己教師付き学習の分野からのメソッドを使用してアノテーションなしで、大規模な画像データセット上で事前トレーニングすることができる。
論文 参考訳(メタデータ) (2023-08-12T11:31:01Z) - Transferring Learning Trajectories of Neural Networks [2.2299983745857896]
深層ニューラルネットワーク(DNN)のトレーニングには計算コストがかかる。
我々は、与えられた学習軌跡を1つの初期パラメータから別のパラメータへ"転送する"という問題を定式化する。
移動パラメータが直接トレーニングの前に非自明な精度を達成できることを実証的に示し、スクラッチからトレーニングするよりもはるかに高速に訓練できることを実証した。
論文 参考訳(メタデータ) (2023-05-23T14:46:32Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Neural Maximum A Posteriori Estimation on Unpaired Data for Motion
Deblurring [87.97330195531029]
本稿では、ニューラルネットワークをトレーニングし、失明したデータから視覚情報や鋭いコンテンツを復元するためのニューラルネットワークの最大Aポストエリオリ(NeurMAP)推定フレームワークを提案する。
提案されたNeurMAPは、既存のデブロアリングニューラルネットワークに対するアプローチであり、未使用データセット上のイメージデブロアリングネットワークのトレーニングを可能にする最初のフレームワークである。
論文 参考訳(メタデータ) (2022-04-26T08:09:47Z) - Jigsaw Clustering for Unsupervised Visual Representation Learning [68.09280490213399]
本稿では,新しいjigsawクラスタリング・プレテキストタスクを提案する。
本手法は画像内情報と画像間情報の両方を利用する。
トレーニングバッチの半分しか使用されていない場合、コントラスト学習方法にも匹敵します。
論文 参考訳(メタデータ) (2021-04-01T08:09:26Z) - Self-Supervised Pretraining Improves Self-Supervised Pretraining [83.1423204498361]
自己教師付き事前トレーニングには、高価で長い計算と大量のデータが必要で、データ拡張に敏感である。
本稿では,既存の事前学習モデルを用いて事前学習プロセスを初期化することにより,収束時間を短縮し,精度を向上させる階層的事前学習(HPT)について検討する。
HPTが最大80倍速く収束し、タスク全体の精度が向上し、自己監視された事前トレーニングプロセスの堅牢性が、画像増強ポリシーまたは事前トレーニングデータの量の変化に改善されることを示します。
論文 参考訳(メタデータ) (2021-03-23T17:37:51Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Deep Learning in Diabetic Foot Ulcers Detection: A Comprehensive
Evaluation [14.227261503586599]
本稿では、入賞チームが提案するディープラーニングに基づくアルゴリズムを比較し、DFUC 2020の結果を要約する。
最高の性能は、より高速なR-CNNの変種であるDeformable Convolutionから得られ、平均平均精度は0.6940、F1スコアは0.7434である。
論文 参考訳(メタデータ) (2020-10-07T11:31:27Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。