論文の概要: CC-Loss: Channel Correlation Loss For Image Classification
- arxiv url: http://arxiv.org/abs/2010.05469v1
- Date: Mon, 12 Oct 2020 05:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 07:17:50.718082
- Title: CC-Loss: Channel Correlation Loss For Image Classification
- Title(参考訳): CC-Loss:画像分類のチャンネル相関損失
- Authors: Zeyu Song, Dongliang Chang, Zhanyu Ma, Xiaoxu Li, Zheng-Hua Tan
- Abstract要約: チャネル相関損失(CC-Loss)は、クラスとチャネル間の特定の関係を制約することができる。
提案したCC-Lossでトレーニングされた2つの異なるバックボーンモデルは、3つの画像分類データセットにおける最先端の損失関数より優れている。
- 参考スコア(独自算出の注目度): 35.43152123975516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The loss function is a key component in deep learning models. A commonly used
loss function for classification is the cross entropy loss, which is a simple
yet effective application of information theory for classification problems.
Based on this loss, many other loss functions have been proposed,~\emph{e.g.},
by adding intra-class and inter-class constraints to enhance the discriminative
ability of the learned features. However, these loss functions fail to consider
the connections between the feature distribution and the model structure.
Aiming at addressing this problem, we propose a channel correlation loss
(CC-Loss) that is able to constrain the specific relations between classes and
channels as well as maintain the intra-class and the inter-class separability.
CC-Loss uses a channel attention module to generate channel attention of
features for each sample in the training stage. Next, an Euclidean distance
matrix is calculated to make the channel attention vectors associated with the
same class become identical and to increase the difference between different
classes. Finally, we obtain a feature embedding with good intra-class
compactness and inter-class separability.Experimental results show that two
different backbone models trained with the proposed CC-Loss outperform the
state-of-the-art loss functions on three image classification datasets.
- Abstract(参考訳): 損失関数はディープラーニングモデルにおいて重要な要素である。
分類によく用いられる損失関数はクロスエントロピー損失であり、分類問題に対する情報理論の単純かつ効果的な応用である。
この損失に基づいて、学習された特徴の識別能力を高めるためにクラス内およびクラス間制約を追加することで、他の多くの損失関数が提案されている。
しかし、これらの損失関数は特徴分布とモデル構造との間の接続を考慮できない。
この問題に対処するために,クラス内およびクラス間分離性を維持するとともに,クラスとチャネル間の特定の関係を制限できるチャネル相関損失(CC-Loss)を提案する。
CC-Lossはチャネルアテンションモジュールを使用して、トレーニングステージの各サンプルの特徴のチャネルアテンションを生成する。
次に、ユークリッド距離行列を計算し、同一のクラスに関連するチャネル注意ベクトルを同一とし、異なるクラス間の差を増加させる。
実験の結果,提案したCC-Lossでトレーニングした2種類のバックボーンモデルが,3つの画像分類データセットにおける最先端の損失関数より優れていることが示された。
関連論文リスト
- Minimizing Chebyshev Prototype Risk Magically Mitigates the Perils of Overfitting [1.6574413179773757]
クラス内特徴相関を低減し,クラス間特徴距離を最大化する多成分損失関数を開発した。
我々は,Chebyshev Prototype Risk (CPR) という用語を明示的なCPR損失関数に限定して実装する。
トレーニングアルゴリズムは、多くの設定において、以前のアプローチの過度な適合を減らし、改善する。
論文 参考訳(メタデータ) (2024-04-10T15:16:04Z) - Class-Agnostic Segmentation Loss and Its Application to Salient Object
Detection and Segmentation [17.149364927872014]
そこで我々はCAS(class-agnostic segmentation)ロスと呼ばれる新しい損失関数を提案する。
CAS損失関数はスパースであり, 有界であり, クラス不均衡に対して頑健であることを示す。
論文 参考訳(メタデータ) (2021-07-16T12:26:31Z) - Channel DropBlock: An Improved Regularization Method for Fine-Grained
Visual Classification [58.07257910065007]
既存のアプローチは主に、識別的部分を見つけるための注意機構や、高度にパラメータ化された特徴を弱教師付きで抽出する特徴符号化アプローチを導入することでこの問題に対処している。
本研究では,CDB(Channel DropBlock)と呼ばれる軽量で効果的な正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:03:02Z) - Orthogonal Projection Loss [59.61277381836491]
直交射影損失(OPL)と呼ばれる新しい損失関数を開発する。
OPLは、機能空間におけるクラス内クラスタリングとクラス間分離を直接実施する。
OPLは、慎重な負のマイニングを必要とせず、バッチサイズに敏感であるため、ユニークな利点がある。
論文 参考訳(メタデータ) (2021-03-25T17:58:00Z) - Class-Agnostic Segmentation Loss and Its Application to Salient Object
Detection and Segmentation [17.532822703595766]
そこで我々はCAS(class-agnostic segmentation)ロスと呼ばれる新しい損失関数を提案する。
CAS損失関数はスパースであり, 有界であり, クラス不均衡に対して頑健であることを示す。
低忠実度および高忠実度トレーニングデータの2つの設定における最先端手法に対する性能について検討する。
論文 参考訳(メタデータ) (2020-10-28T07:11:15Z) - $\sigma^2$R Loss: a Weighted Loss by Multiplicative Factors using
Sigmoidal Functions [0.9569316316728905]
我々は,二乗還元損失(sigma2$R損失)と呼ばれる新たな損失関数を導入する。
我々の損失は明らかな直観と幾何学的解釈を持ち、我々の提案の有効性を実験によって実証する。
論文 参考訳(メタデータ) (2020-09-18T12:34:40Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z) - The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image
Classification [67.79883226015824]
きめ細かい画像分類を解く鍵は、微妙な視覚的特徴に対応する識別領域と局所領域を見つけることである。
本稿では,複雑なネットワーク設計や学習機構を必要とせずに,微妙な詳細を育むことができることを示す。
提案した損失関数は、相互チャネル損失(MC-Loss)と呼ばれ、2つのチャネル固有成分から構成される。
論文 参考訳(メタデータ) (2020-02-11T09:12:45Z) - Learning Class Regularized Features for Action Recognition [68.90994813947405]
本稿では,階層活性化のクラスベース正規化を行うクラス正規化手法を提案する。
動作認識に最先端CNNアーキテクチャのクラス正規化ブロックを用いることで,Kineetics,UCF-101,HMDB-51データセットにおいて,それぞれ1.8%,1.2%,1.4%の体系的改善が得られた。
論文 参考訳(メタデータ) (2020-02-07T07:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。