論文の概要: A Discriminative Channel Diversification Network for Image
Classification
- arxiv url: http://arxiv.org/abs/2112.05861v1
- Date: Fri, 10 Dec 2021 23:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 16:47:23.007465
- Title: A Discriminative Channel Diversification Network for Image
Classification
- Title(参考訳): 画像分類のための識別チャネル多様化ネットワーク
- Authors: Krushi Patel, Guanghui Wang
- Abstract要約: そこで本稿では,グローバルなコンテキストを改善するために,チャネル多様化ブロックと呼ばれる軽量で効果的なアテンションモジュールを提案する。
他のチャネルアテンション機構とは異なり、提案モジュールは最も識別性の高い特徴に焦点を当てている。
CIFAR-10、SVHN、Tiny-ImageNetのデータセットに対する実験により、提案モジュールはベースラインネットワークの性能を平均で3%向上することを示した。
- 参考スコア(独自算出の注目度): 21.049734250642974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Channel attention mechanisms in convolutional neural networks have been
proven to be effective in various computer vision tasks. However, the
performance improvement comes with additional model complexity and computation
cost. In this paper, we propose a light-weight and effective attention module,
called channel diversification block, to enhance the global context by
establishing the channel relationship at the global level. Unlike other channel
attention mechanisms, the proposed module focuses on the most discriminative
features by giving more attention to the spatially distinguishable channels
while taking account of the channel activation. Different from other attention
models that plugin the module in between several intermediate layers, the
proposed module is embedded at the end of the backbone networks, making it easy
to implement. Extensive experiments on CIFAR-10, SVHN, and Tiny-ImageNet
datasets demonstrate that the proposed module improves the performance of the
baseline networks by a margin of 3% on average.
- Abstract(参考訳): 畳み込みニューラルネットワークにおけるチャネルアテンション機構は、様々なコンピュータビジョンタスクに有効であることが証明されている。
しかし、パフォーマンス改善にはモデルの複雑さと計算コストが伴う。
本稿では,チャネルの多様化ブロックと呼ばれる軽量で効果的な注目モジュールを提案し,グローバルレベルでのチャネル関係を確立することにより,グローバルなコンテキストを強化する。
他のチャネルアテンション機構とは異なり、提案モジュールは、チャネルアクティベーションを考慮して、空間的に識別可能なチャネルにより多くの注意を向けることにより、最も識別性の高い特徴に焦点を当てる。
モジュールを複数の中間層にプラグインする他の注意モデルとは異なり、提案されたモジュールはバックボーンネットワークの最後に埋め込まれており、実装が容易である。
CIFAR-10、SVHN、Tiny-ImageNetデータセットの大規模な実験により、提案モジュールはベースラインネットワークの性能を平均で3%向上することを示した。
関連論文リスト
- SOFTS: Efficient Multivariate Time Series Forecasting with Series-Core Fusion [59.96233305733875]
時系列予測は、金融、交通管理、エネルギー、医療など様々な分野で重要な役割を果たしている。
いくつかの方法は、注意やミキサーのようなメカニズムを利用して、チャネル相関をキャプチャすることでこの問題に対処する。
本稿では,効率的なモデルであるSOFTS(Series-cOre Fused Time Series forecaster)を提案する。
論文 参考訳(メタデータ) (2024-04-22T14:06:35Z) - MCA: Moment Channel Attention Networks [10.780493635885225]
ニューラルネットワーク内の特徴写像の統計モーメントについて検討する。
本研究は,モデルキャパシティ向上における高次モーメントの重要性を明らかにする。
モーメントチャネル注意(MCA)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-04T04:02:59Z) - Joint Channel Estimation and Feedback with Masked Token Transformers in
Massive MIMO Systems [74.52117784544758]
本稿では,CSI行列内の固有周波数領域相関を明らかにするエンコーダデコーダに基づくネットワークを提案する。
エンコーダ・デコーダネットワーク全体がチャネル圧縮に使用される。
提案手法は,共同作業における現状のチャネル推定およびフィードバック技術より優れる。
論文 参考訳(メタデータ) (2023-06-08T06:15:17Z) - Efficient Multi-Scale Attention Module with Cross-Spatial Learning [4.046170185945849]
効率的なマルチスケールアテンション(EMA)モジュールを提案する。
チャネルごとの情報保持と計算オーバーヘッドの低減に重点を置いている。
我々は画像分類と物体検出タスクについて広範囲にわたるアブレーション研究と実験を行った。
論文 参考訳(メタデータ) (2023-05-23T00:35:47Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Global Attention Mechanism: Retain Information to Enhance
Channel-Spatial Interactions [1.4438155481047366]
本稿では,情報低減とグローバルな対話表現の増大により,ディープニューラルネットワークの性能を高めるグローバルアテンション機構を提案する。
CIFAR-100 と ImageNet-1K による画像分類処理の機構の評価は,ResNet と軽量 MobileNet の双方による近年の注目機構を安定的に上回っていることを示す。
論文 参考訳(メタデータ) (2021-12-10T14:12:32Z) - Convolutional Neural Network optimization via Channel Reassessment
Attention module [19.566271646280978]
本稿では,Channel Reassesment (CRA) モジュールと呼ばれる新しいネットワーク最適化モジュールを提案する。
CRAモジュールは、特徴マップの空間情報とチャネルアテンションを用いて、ネットワークの表現力を高める。
ImageNetとMSデータセットの実験では、様々なネットワークにCRAモジュールを埋め込むことで、異なる評価基準下での性能が効果的に向上することが示されている。
論文 参考訳(メタデータ) (2020-10-12T11:27:17Z) - Single Image Super-Resolution via a Holistic Attention Network [87.42409213909269]
本稿では,階層,チャネル,位置間の全体的相互依存性をモデル化するための新しい全体論的注意ネットワーク(HAN)を提案する。
提案したHANは階層的特徴を適応的に強調し,層間相関を考慮した。
実験により、提案HANは、最先端の単一画像超解像アプローチに対して好適に機能することが示された。
論文 参考訳(メタデータ) (2020-08-20T04:13:15Z) - Channel Interaction Networks for Fine-Grained Image Categorization [61.095320862647476]
微妙なクラス間差のため、きめ細かい画像分類は困難である。
本稿では,チャネル・インタラクション・ネットワーク(CIN)を提案する。
我々のモデルは、多段階のトレーニングやテストを必要とせずに、エンドツーエンドで効率的にトレーニングすることができる。
論文 参考訳(メタデータ) (2020-03-11T11:51:51Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。