論文の概要: Squeeze aggregated excitation network
- arxiv url: http://arxiv.org/abs/2308.13343v1
- Date: Fri, 25 Aug 2023 12:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 14:00:48.462650
- Title: Squeeze aggregated excitation network
- Title(参考訳): スクイーズ集約励起ネットワーク
- Authors: Mahendran N
- Abstract要約: 畳み込みニューラルネットワークは、視覚タスクのパターンを読み取る空間表現を持つ。
本稿では,Squeeze集約励起ネットワークであるSaEnetを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Convolutional neural networks have spatial representations which read
patterns in the vision tasks. Squeeze and excitation links the channel wise
representations by explicitly modeling on channel level. Multi layer
perceptrons learn global representations and in most of the models it is used
often at the end after all convolutional layers to gather all the information
learned before classification. We propose a method of inducing the global
representations within channels to have better performance of the model. We
propose SaEnet, Squeeze aggregated excitation network, for learning global
channelwise representation in between layers. The proposed module takes
advantage of passing important information after squeeze by having aggregated
excitation before regaining its shape. We also introduce a new idea of having a
multibranch linear(dense) layer in the network. This learns global
representations from the condensed information which enhances the
representational power of the network. The proposed module have undergone
extensive experiments by using Imagenet and CIFAR100 datasets and compared with
closely related architectures. The analyzes results that proposed models
outputs are comparable and in some cases better than existing state of the art
architectures.
- Abstract(参考訳): 畳み込みニューラルネットワークは、視覚タスクのパターンを読み取る空間表現を持つ。
スクイーズと興奮はチャネルレベルで明示的にモデリングすることでチャネルの賢明な表現をリンクする。
多層パーセプトロンは、大域的な表現を学習し、ほとんどのモデルでは、分類前に学習された全ての情報を収集するために全ての畳み込み層を最後にしばしば使用する。
モデルの性能向上のために,チャネル内のグローバル表現を誘導する手法を提案する。
本稿では,saenetを提案する。sweish aggregated excitation networkは,層間におけるグローバルチャネルワイズ表現を学習する。
提案モジュールは, 圧縮後に重要な情報を伝達し, 集合励起を行い, 形状を復元する。
また、ネットワーク上にマルチブランチ線形(dense)層を持つという新しい考え方も導入する。
これにより、ネットワークの表現力を高める凝縮情報からグローバル表現を学習する。
提案されたモジュールはimagenetとcifar100データセットを使用して広範な実験を行い、関連するアーキテクチャと比較している。
提案するモデル出力が同等であり、場合によっては既存のアートアーキテクチャよりも優れているという結果を分析する。
関連論文リスト
- Linking in Style: Understanding learned features in deep learning models [0.0]
畳み込みニューラルネットワーク(CNN)は抽象的な特徴を学び、オブジェクト分類を行う。
本稿では,CNNにおける学習特徴を可視化し,体系的に解析する自動手法を提案する。
論文 参考訳(メタデータ) (2024-09-25T12:28:48Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - SENetV2: Aggregated dense layer for channelwise and global
representations [0.0]
我々は,Squeeze残余モジュール内に,多分岐密度層である新しい多層パーセプトロンを導入する。
この融合により、チャネルワイドパターンを捕捉し、グローバルな知識を持つネットワークの能力が向上する。
ベンチマークデータセットの広範な実験を行い、モデルを検証し、確立したアーキテクチャと比較する。
論文 参考訳(メタデータ) (2023-11-17T14:10:57Z) - Edge-Enhanced Global Disentangled Graph Neural Network for Sequential
Recommendation [44.15486708923762]
本稿では,エッジ拡張グローバルディスタングルグラフニューラルネットワーク(EGD-GNN)モデルを提案する。
グローバルレベルでは、アイテムの関係をモデル化するために、すべてのシーケンスにまたがるグローバルリンクグラフを構築します。
ローカルレベルでは、変動型自動エンコーダフレームワークを適用して、現在のシーケンスに関するユーザの意図を学習する。
論文 参考訳(メタデータ) (2021-11-20T08:15:20Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Do Vision Transformers See Like Convolutional Neural Networks? [45.69780772718875]
近年の研究では、画像分類タスクにおいて、(Vision) Transformer Model (ViT) が同等またはそれ以上の性能を達成できることが示されている。
畳み込みネットワークのように振る舞うのか、それとも全く異なる視覚表現を学ぶのか?
例えば、ViTはすべての層にわたってより均一な表現を持つ。
論文 参考訳(メタデータ) (2021-08-19T17:27:03Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Embedded Encoder-Decoder in Convolutional Networks Towards Explainable
AI [0.0]
本稿では,刺激の視覚的特徴を表す新しい説明可能な畳み込みニューラルネットワーク(XCNN)を提案する。
CIFAR-10, Tiny ImageNet, MNISTデータセットを用いた実験結果から, 提案アルゴリズム (XCNN) をCNNで説明可能なものにすることに成功した。
論文 参考訳(メタデータ) (2020-06-19T15:49:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。