論文の概要: The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image
Classification
- arxiv url: http://arxiv.org/abs/2002.04264v3
- Date: Tue, 10 Aug 2021 04:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 02:22:52.238878
- Title: The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image
Classification
- Title(参考訳): the devil is in the channel: きめ細かい画像分類のための相互チャネル損失
- Authors: Dongliang Chang, Yifeng Ding, Jiyang Xie, Ayan Kumar Bhunia, Xiaoxu
Li, Zhanyu Ma, Ming Wu, Jun Guo, Yi-Zhe Song
- Abstract要約: きめ細かい画像分類を解く鍵は、微妙な視覚的特徴に対応する識別領域と局所領域を見つけることである。
本稿では,複雑なネットワーク設計や学習機構を必要とせずに,微妙な詳細を育むことができることを示す。
提案した損失関数は、相互チャネル損失(MC-Loss)と呼ばれ、2つのチャネル固有成分から構成される。
- 参考スコア(独自算出の注目度): 67.79883226015824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Key for solving fine-grained image categorization is finding discriminate and
local regions that correspond to subtle visual traits. Great strides have been
made, with complex networks designed specifically to learn part-level
discriminate feature representations. In this paper, we show it is possible to
cultivate subtle details without the need for overly complicated network
designs or training mechanisms -- a single loss is all it takes. The main trick
lies with how we delve into individual feature channels early on, as opposed to
the convention of starting from a consolidated feature map. The proposed loss
function, termed as mutual-channel loss (MC-Loss), consists of two
channel-specific components: a discriminality component and a diversity
component. The discriminality component forces all feature channels belonging
to the same class to be discriminative, through a novel channel-wise attention
mechanism. The diversity component additionally constraints channels so that
they become mutually exclusive on spatial-wise. The end result is therefore a
set of feature channels that each reflects different locally discriminative
regions for a specific class. The MC-Loss can be trained end-to-end, without
the need for any bounding-box/part annotations, and yields highly
discriminative regions during inference. Experimental results show our MC-Loss
when implemented on top of common base networks can achieve state-of-the-art
performance on all four fine-grained categorization datasets (CUB-Birds,
FGVC-Aircraft, Flowers-102, and Stanford-Cars). Ablative studies further
demonstrate the superiority of MC-Loss when compared with other recently
proposed general-purpose losses for visual classification, on two different
base networks. Code available at
https://github.com/dongliangchang/Mutual-Channel-Loss
- Abstract(参考訳): きめ細かい画像分類を解く鍵は、微妙な視覚特性に対応する識別領域と局所領域を見つけることである。
複雑なネットワークは、部分レベルの特徴表現を識別するために特別に設計された。
本稿では,過度に複雑なネットワーク設計やトレーニング機構を必要とせずに,微妙な詳細を育むことが可能であることを示す。
主なトリックは、統合された機能マップから始めるという慣例とは対照的に、個々の機能チャネルを早期に掘り下げる方法にある。
提案した損失関数は、相互チャネル損失(MC-Loss)と呼ばれ、識別性成分と多様性成分の2つのチャネル固有成分からなる。
識別性コンポーネントは、同一クラスに属する全ての特徴チャネルを、新しいチャネルワイドアテンションメカニズムを通じて識別するように強制する。
多様性要素は、空間的に互いに排他的になるようにチャネルを制約する。
したがって、最終的な結果は、それぞれの特定のクラスに対して異なる局所的な判別領域を反映する機能チャネルの集合である。
MC-Lossは、バウンディングボックス/パートアノテーションを必要とせずに、エンドツーエンドでトレーニングすることができる。
CUB-Birds,FGVC-Aircraft,Flowers-102,Stanford-Carsの4つの細粒度分類データセットに対して,共通基盤ネットワーク上に実装したMC-Lossの有効性を示す実験結果を得た。
アブレーション研究は、2つの異なるベースネットワーク上で、最近提案された視覚分類の汎用的損失と比較した場合、mc-lossの優位性をさらに示している。
コードはhttps://github.com/dongliangchang/mutual-channel-lossで利用可能
関連論文リスト
- Interpreting Class Conditional GANs with Channel Awareness [57.01413866290279]
クラス条件生成器が複数のクラスの合成をどのように統合するかを検討する。
このような現象を説明するために、単一チャネルが最終合成にどのように貢献するかを定量的に特徴づけるチャネル認識を提案する。
我々のアルゴリズムは条件付きGANでいくつかの新しい応用を可能にする。
論文 参考訳(メタデータ) (2022-03-21T17:53:22Z) - Frequency-aware Discriminative Feature Learning Supervised by
Single-Center Loss for Face Forgery Detection [89.43987367139724]
顔の偽造検出は、コンピュータビジョンへの関心をますます高めている。
近年の業績は良好なものとなっているが、いまだに無視できない問題がある。
本稿では,新しい周波数認識型特徴学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-16T14:17:17Z) - Fine-Grained Visual Classification via Simultaneously Learning of
Multi-regional Multi-grained Features [15.71408474557042]
きめ細かい視覚分類は、同じメタクラスに属するサブクラスを認識する難しいタスクである。
本稿では,マルチリージョンのマルチグラニュアルな特徴をマイニングすることが,この課題の鍵となることを論じる。
4つの画像分類データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2021-01-31T03:46:10Z) - Progressive Co-Attention Network for Fine-grained Visual Classification [20.838908090777885]
きめ細かい視覚分類は、同じカテゴリ内の複数のサブカテゴリに属する画像を認識することを目的としている。
既存のほとんどの方法は個々の画像のみを入力とする。
そこで本研究では,pca-net(progressive co-attention network)と呼ばれる効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-01-21T10:19:02Z) - Knowledge Transfer Based Fine-grained Visual Classification [19.233180617535492]
細かい粒度の視覚分類(FGVC)は、同じカテゴリのサブクラスを区別することを目的とする。
その重要な解決策は、微妙で差別的な領域を採掘することです。
クロスエントロピー損失(CE損失)を損失関数として用いたCNNでは,性能が低かった。
論文 参考訳(メタデータ) (2020-12-21T14:41:08Z) - Channel-wise Knowledge Distillation for Dense Prediction [73.99057249472735]
本稿では,学生ネットワークと教師ネットワークのチャンネルワイズ機能について提案する。
様々なネットワーク構造を持つ3つのベンチマークにおいて、一貫して優れた性能を実現している。
論文 参考訳(メタデータ) (2020-11-26T12:00:38Z) - CC-Loss: Channel Correlation Loss For Image Classification [35.43152123975516]
チャネル相関損失(CC-Loss)は、クラスとチャネル間の特定の関係を制約することができる。
提案したCC-Lossでトレーニングされた2つの異なるバックボーンモデルは、3つの画像分類データセットにおける最先端の損失関数より優れている。
論文 参考訳(メタデータ) (2020-10-12T05:59:06Z) - Universal-to-Specific Framework for Complex Action Recognition [114.78468658086572]
本稿では,複雑な行動認識のためのU2Sフレームワークを提案する。
U2Sフレームワークは、ユニバーサルネットワーク、カテゴリ固有のネットワーク、マスクネットワークという3つのワークで構成されている。
さまざまなベンチマークデータセットの実験では、U2Sフレームワークの有効性が示されている。
論文 参考訳(メタデータ) (2020-07-13T01:49:07Z) - Adaptive feature recombination and recalibration for semantic
segmentation with Fully Convolutional Networks [57.64866581615309]
完全畳み込みネットワークを用いたセマンティックセグメンテーションに適応した特徴の組換えと空間適応型再分類ブロックを提案する。
その結果、再結合と再校正は競争ベースラインの結果を改善し、3つの異なる問題にまたがって一般化することを示した。
論文 参考訳(メタデータ) (2020-06-19T15:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。