論文の概要: Learning and Exploiting Interclass Visual Correlations for Medical Image
Classification
- arxiv url: http://arxiv.org/abs/2007.06371v1
- Date: Mon, 13 Jul 2020 13:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:17:10.826671
- Title: Learning and Exploiting Interclass Visual Correlations for Medical Image
Classification
- Title(参考訳): 医用画像分類のためのクラス間視覚相関の学習と展開
- Authors: Dong Wei, Shilei Cao, Kai Ma, Yefeng Zheng
- Abstract要約: 本稿では、クラス相関学習ネットワーク(CCL-Net)を提案し、与えられたトレーニングデータからクラス間の視覚的相関を学習する。
ネットワークが望ましい相関関係を直接学習させる代わりに,クラス固有の埋め込みの距離メートル法学習を通じて暗黙的に学習することを提案する。
相関関係の幾何学的説明に基づく直感的損失は、クラス間の相関関係の学習を促進するために設計されている。
- 参考スコア(独自算出の注目度): 30.88175218665726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network-based medical image classifications often use "hard"
labels for training, where the probability of the correct category is 1 and
those of others are 0. However, these hard targets can drive the networks
over-confident about their predictions and prone to overfit the training data,
affecting model generalization and adaption. Studies have shown that label
smoothing and softening can improve classification performance. Nevertheless,
existing approaches are either non-data-driven or limited in applicability. In
this paper, we present the Class-Correlation Learning Network (CCL-Net) to
learn interclass visual correlations from given training data, and produce soft
labels to help with classification tasks. Instead of letting the network
directly learn the desired correlations, we propose to learn them implicitly
via distance metric learning of class-specific embeddings with a lightweight
plugin CCL block. An intuitive loss based on a geometrical explanation of
correlation is designed for bolstering learning of the interclass correlations.
We further present end-to-end training of the proposed CCL block as a plugin
head together with the classification backbone while generating soft labels on
the fly. Our experimental results on the International Skin Imaging
Collaboration 2018 dataset demonstrate effective learning of the interclass
correlations from training data, as well as consistent improvements in
performance upon several widely used modern network structures with the CCL
block.
- Abstract(参考訳): ディープニューラルネットワークに基づく医療画像分類では、正しいカテゴリの確率が1で、他のカテゴリの確率が0のトレーニングに「ハード」ラベルを使用することが多い。
しかし、これらのハードターゲットはネットワークの予測を過度に確証し、モデルの一般化と適応に影響を与えるトレーニングデータに過剰に適合しがちである。
ラベルの平滑化と軟化は分類性能を向上させることが研究で示されている。
それでも、既存のアプローチは非データ駆動か、適用性に制限がある。
本稿では,クラス相関学習ネットワーク(ccl-net)を用いて,与えられた学習データからクラス間視覚相関を学習し,分類作業を支援するソフトラベルを作成する。
ネットワークに望ましい相関を直接学習させる代わりに,軽量プラグインcclブロックを用いたクラス固有組込みの距離メトリック学習を通じて暗黙的に学習することを提案する。
相関の幾何学的説明に基づく直感的損失は、クラス間相関の学習を促進するために設計されている。
さらに,提案するCCLブロックをプラグインヘッドとして,分類バックボーンとともに,ソフトラベルをオンザフライで生成し,エンドツーエンドのトレーニングを行う。
国際スキンイメージングコラボレーション2018データセットの実験結果は、トレーニングデータからのクラス間相関の効果的な学習と、cclブロックを用いたいくつかの現代的なネットワーク構造のパフォーマンスの一貫した改善を示しています。
関連論文リスト
- Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - 2nd Place Solution for ICCV 2021 VIPriors Image Classification
Challenge: An Attract-and-Repulse Learning Approach [41.346232387426944]
畳み込みニューラルネットワーク(CNN)は、大規模なデータセットを利用することで、画像分類において大きな成功を収めた。
特徴表現を豊かにするContrastive Regularization(CR)と、異なるクラスに対する適合性のバランスをとるSymmetric Cross Entropy(SCE)からなるAttract-and-Repulseを提案する。
具体的には、SCEとCRは、クラス(トラクション)とインスタンス(リパルス)の情報間の適応的トレードオフによる過度な適合を緩和しながら、識別表現を学習する。
論文 参考訳(メタデータ) (2022-06-13T13:54:33Z) - Federated Contrastive Learning for Volumetric Medical Image Segmentation [16.3860181959878]
フェデレートラーニング(FL)は、プライバシのためのトレーニングデータをローカルに保持しながら、共有モデルを学ぶことで、この点において役立つ。
従来のFLはトレーニングのために完全にラベル付けされたデータを必要とする。
そこで本研究では,アノテーションを限定したボリューム・メディカル・イメージ・セグメンテーションのためのFCLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-23T03:47:23Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - GAN for Vision, KG for Relation: a Two-stage Deep Network for Zero-shot
Action Recognition [33.23662792742078]
ゼロショット動作認識のための2段階のディープニューラルネットワークを提案する。
サンプリング段階では,授業の動作特徴と単語ベクトルによって訓練されたGAN(Generative Adversarial Network)を利用する。
分類段階において、アクションクラスの単語ベクトルと関連するオブジェクトの関係に基づいて知識グラフを構築する。
論文 参考訳(メタデータ) (2021-05-25T09:34:42Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - PK-GCN: Prior Knowledge Assisted Image Classification using Graph
Convolution Networks [3.4129083593356433]
クラス間の類似性は、分類のパフォーマンスに影響を与える可能性がある。
本稿では,クラス類似性の知識を畳み込みニューラルネットワークモデルに組み込む手法を提案する。
実験結果から, 利用可能なデータの量が少ない場合には, 分類精度が向上することが示唆された。
論文 参考訳(メタデータ) (2020-09-24T18:31:35Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。