論文の概要: AFINet: Attentive Feature Integration Networks for Image Classification
- arxiv url: http://arxiv.org/abs/2105.04354v1
- Date: Mon, 10 May 2021 13:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:49:37.552153
- Title: AFINet: Attentive Feature Integration Networks for Image Classification
- Title(参考訳): AFINet:画像分類のための注意機能統合ネットワーク
- Authors: Xinglin Pan, Jing Xu, Yu Pan, liangjian Wen, WenXiang Lin, Kun Bai,
Zenglin Xu
- Abstract要約: アテンシブ機能統合(AFI)モジュールを設計し、最新のネットワークアーキテクチャに広く適用され、AFI-Netsと呼ばれる新しいアーキテクチャにつながります。
AFI-ResNet-152は、ImageNetデータセットの1.24%の相対的な改善と、FLOPの約10%の削減、パラメータの約9.2%の削減を実現している。
- 参考スコア(独自算出の注目度): 23.011541504473776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) have achieved tremendous success in a
number of learning tasks including image classification. Recent advanced models
in CNNs, such as ResNets, mainly focus on the skip connection to avoid gradient
vanishing. DenseNet designs suggest creating additional bypasses to transfer
features as an alternative strategy in network design. In this paper, we design
Attentive Feature Integration (AFI) modules, which are widely applicable to
most recent network architectures, leading to new architectures named AFI-Nets.
AFI-Nets explicitly model the correlations among different levels of features
and selectively transfer features with a little overhead.AFI-ResNet-152 obtains
a 1.24% relative improvement on the ImageNet dataset while decreases the FLOPs
by about 10% and the number of parameters by about 9.2% compared to ResNet-152.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、画像分類を含む多くの学習タスクで大きな成功を収めている。
ResNetsのような最近のCNNの高度なモデルは、勾配の消滅を避けるために主にスキップ接続に焦点を当てている。
DenseNetの設計は、ネットワーク設計における代替戦略として、機能を転送するための追加のバイパスを作成することを提案している。
本稿では,最新のネットワークアーキテクチャに適用可能なAFI(Attentive Feature Integration)モジュールを設計し,新しいアーキテクチャであるAFI-Netsを提案する。
AFI-ResNet-152はImageNetデータセットに対して1.24%の相対的な改善を実現し、FLOPを約10%削減し、パラメータの数をResNet-152と比較して約9.2%削減する。
関連論文リスト
- GoogLe2Net: Going Transverse with Convolutions [0.0]
本稿では,GoogLe2Netと呼ばれる新しいCNNアーキテクチャを提案する。
ResFRI(Reslit Feature Reutilization Inception)またはSplit-ResFRI(Split Feature Reutilization Inception)から構成される。
当社のGoogLe2Netは、畳み込みレイヤのグループによってキャプチャされた情報を再利用し、きめ細かいレベルでマルチスケールの機能を表現することができます。
論文 参考訳(メタデータ) (2023-01-01T15:16:10Z) - Connection Reduction Is All You Need [0.10878040851637998]
実証的な研究によると、畳み込みレイヤの積み重ねだけではネットワークのトレーニングが良くならない。
レイヤを接続する2つの新しいアルゴリズムを提案する。
ShortNet1は、Baselineよりも5%低いテストエラー率と25%速い推論時間を持っている。
論文 参考訳(メタデータ) (2022-08-02T13:00:35Z) - SIRe-Networks: Skip Connections over Interlaced Multi-Task Learning and
Residual Connections for Structure Preserving Object Classification [28.02302915971059]
本稿では、オブジェクト分類タスクにおける消失勾配を低減するために、SIReを定義したインターレース型マルチタスク学習戦略を提案する。
提案手法は、自動エンコーダを介して入力画像構造を保存することにより、畳み込みニューラルネットワーク(CNN)を直接改善する。
提案手法を検証するため、SIRe戦略を介して単純なCNNと有名なネットワークの様々な実装を拡張し、CIFAR100データセットで広範囲にテストする。
論文 参考訳(メタデータ) (2021-10-06T13:54:49Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Multi-scale Attention U-Net (MsAUNet): A Modified U-Net Architecture for
Scene Segmentation [1.713291434132985]
画像からコンテキスト情報を用いたシーンセグメンテーションのためのマルチスケールアテンションネットワークを提案する。
このネットワークは、局所的な特徴をグローバルな特徴にマップし、精度を向上し、識別画像領域を強調する。
我々はPascalVOC2012とADE20kという2つの標準データセットでモデルを評価した。
論文 参考訳(メタデータ) (2020-09-15T08:03:41Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - Evolving Normalization-Activation Layers [100.82879448303805]
我々は、うまく機能しない候補層を迅速にフィルタリングする効率的な拒絶プロトコルを開発した。
EvoNormsは、新しい正規化活性化層であり、新しい構造を持ち、時には驚くべき構造を持つ。
我々の実験は、EvoNormsがResNets、MobileNets、EfficientNetsなどの画像分類モデルでうまく機能していることを示している。
論文 参考訳(メタデータ) (2020-04-06T19:52:48Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。