論文の概要: A novel adversarial learning strategy for medical image classification
- arxiv url: http://arxiv.org/abs/2206.11501v2
- Date: Sun, 26 Jun 2022 22:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 10:30:09.584154
- Title: A novel adversarial learning strategy for medical image classification
- Title(参考訳): 医用画像分類のための新しい敵対的学習戦略
- Authors: Zong Fan, Xiaohui Zhang, Jacob A. Gasienica, Jennifer Potts, Su Ruan,
Wade Thorstad, Hiram Gay, Xiaowei Wang, Hua Li
- Abstract要約: 補助畳み込みニューラルネットワーク(AuxCNN)は、中間層のトレーニングを容易にするために、従来の分類ネットワーク上に採用されている。
本研究では,医用画像分類のための深層ニューラルネットワークのトレーニングを支援するための,対角学習に基づくAuxCNNを提案する。
- 参考スコア(独自算出の注目度): 9.253330143870427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) techniques have been extensively utilized for medical
image classification. Most DL-based classification networks are generally
structured hierarchically and optimized through the minimization of a single
loss function measured at the end of the networks. However, such a single loss
design could potentially lead to optimization of one specific value of interest
but fail to leverage informative features from intermediate layers that might
benefit classification performance and reduce the risk of overfitting.
Recently, auxiliary convolutional neural networks (AuxCNNs) have been employed
on top of traditional classification networks to facilitate the training of
intermediate layers to improve classification performance and robustness. In
this study, we proposed an adversarial learning-based AuxCNN to support the
training of deep neural networks for medical image classification. Two main
innovations were adopted in our AuxCNN classification framework. First, the
proposed AuxCNN architecture includes an image generator and an image
discriminator for extracting more informative image features for medical image
classification, motivated by the concept of generative adversarial network
(GAN) and its impressive ability in approximating target data distribution.
Second, a hybrid loss function is designed to guide the model training by
incorporating different objectives of the classification network and AuxCNN to
reduce overfitting. Comprehensive experimental studies demonstrated the
superior classification performance of the proposed model. The effect of the
network-related factors on classification performance was investigated.
- Abstract(参考訳): 深層学習(DL)技術は医用画像分類に広く利用されている。
ほとんどのDLベースの分類ネットワークは階層的に構成され、ネットワークの終端で測定される単一損失関数の最小化によって最適化される。
しかし、そのような単一損失設計は、ある特定の関心の値を最適化する可能性があるが、分類性能の恩恵を受け、過度に適合するリスクを減らす可能性のある中間層からの情報的特徴を活用することができない。
近年,従来の分類ネットワーク上には補助畳み込みニューラルネットワーク(auxcnns)が用いられ,中間層の訓練が促進され,分類性能とロバスト性が向上している。
本研究では,医用画像分類のための深層ニューラルネットワークのトレーニングを支援するための,対角学習に基づくAuxCNNを提案する。
AuxCNN分類フレームワークでは、2つの主要なイノベーションが採用されました。
まず, 画像生成装置と, 医用画像分類のためのより情報的な画像特徴を抽出する画像判別装置と, 生成型逆ネットワーク (gan) の概念と, その目標データ分布の近似化能力に動機づけられた。
第2に,分類ネットワークとauxcnnの異なる目的を組み込むことにより,モデルトレーニングを導くハイブリッド損失関数を考案した。
包括的実験により,提案モデルの分類性能が向上した。
ネットワーク関連因子が分類性能に及ぼす影響を検討した。
関連論文リスト
- Learning Low-Rank Feature for Thorax Disease Classification [7.447448767095787]
本稿では胸部疾患分類について検討する。
疾患領域の特徴の効果的な抽出は, 放射線画像上の疾患分類に不可欠である。
本稿では,Low-Rank Feature Learning (LRFL)法を提案する。
論文 参考訳(メタデータ) (2024-02-14T15:35:56Z) - Forward-Forward Contrastive Learning [4.465144120325802]
医用画像分類のための新しい事前学習手法として,前向きコントラスト学習(FFCL)を提案する。
FFCLは、肺炎分類タスクにおける既存の事前訓練モデルよりも、ImageNet Pretrained ResNet-18よりも3.69%の精度で性能が向上している。
論文 参考訳(メタデータ) (2023-05-04T15:29:06Z) - Joint localization and classification of breast tumors on ultrasound
images using a novel auxiliary attention-based framework [7.6620616780444974]
本稿では,注意機構と半教師付き半教師付き学習戦略に基づく,新しい共同局所化と分類モデルを提案する。
提案されたモジュール化フレームワークは、様々なアプリケーションに対して柔軟なネットワーク置換を可能にする。
論文 参考訳(メタデータ) (2022-10-11T20:14:13Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Weakly-supervised fire segmentation by visualizing intermediate CNN
layers [82.75113406937194]
画像やビデオにおける火の局所化は、火災事故に対処するための自律システムにとって重要なステップである。
我々は,ネットワークのトレーニングに画像ラベルのみを使用する,画像中の火の弱い制御セグメント化について検討する。
CNNの中間層における特徴量の平均値は,2値セグメンテーション問題である火災セグメンテーションの場合,従来のクラスアクティベーションマッピング(CAM)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-16T11:56:28Z) - Deep AUC Maximization for Medical Image Classification: Challenges and
Opportunities [60.079782224958414]
我々は、AUCによる新たな深層学習手法による機会と課題を提示し、議論する(別名、アンダーラインbfディープアンダーラインbfAUC分類)。
論文 参考訳(メタデータ) (2021-11-01T15:31:32Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Improving Music Performance Assessment with Contrastive Learning [78.8942067357231]
本研究では,既存のMPAシステムを改善するための潜在的手法として,コントラスト学習について検討する。
畳み込みニューラルネットワークに適用された回帰タスクに適した重み付きコントラスト損失を導入する。
この結果から,MPA回帰タスクにおいて,コントラッシブ・ベースの手法がSoTA性能に適合し,超越できることが示唆された。
論文 参考訳(メタデータ) (2021-08-03T19:24:25Z) - (ASNA) An Attention-based Siamese-Difference Neural Network with
Surrogate Ranking Loss function for Perceptual Image Quality Assessment [0.0]
画像復元と拡張のための逆訓練フレームワークを利用する深層畳み込みニューラルネットワーク(dcnn)は、処理された画像のシャープさを大幅に改善した。
イメージの知覚品質とよく一致したパフォーマンスを反映した定量的指標を開発する必要がある。
本稿では,従来のSiameseネットワークの拡張アーキテクチャを用いた畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-05-06T09:04:21Z) - Learning degraded image classification with restoration data fidelity [0.0]
広く使用されている4つの分類ネットワークにおける分解型およびレベルの影響について検討する。
本稿では,事前学習したネットワークで得られた画像特徴を忠実度マップを用いて校正する手法を提案する。
その結果,提案手法は画像劣化による影響を緩和する有望な解であることがわかった。
論文 参考訳(メタデータ) (2021-01-23T23:47:03Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。