論文の概要: Attn-HybridNet: Improving Discriminability of Hybrid Features with
Attention Fusion
- arxiv url: http://arxiv.org/abs/2010.06096v2
- Date: Wed, 14 Oct 2020 12:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 23:03:09.436512
- Title: Attn-HybridNet: Improving Discriminability of Hybrid Features with
Attention Fusion
- Title(参考訳): Attn-HybridNet:注意融合によるハイブリッド特徴の識別性の向上
- Authors: Sunny Verma, Chen Wang, Liming Zhu, and Wei Liu
- Abstract要約: 主成分分析ネットワーク(PCANet)は、主成分を畳み込み層内のフィルタとして利用する、教師なしの擬似深層ネットワークである。
PCANetとTFNet(Facterization Network)が取得した情報は、独特で非自明であるが、個々に不十分であることを示す。
そこで, PCANet と TFNet が取得した情報は, 独特で非自明であるが, 個々に不十分であることを示す。
ハイブリッドな特徴の識別性を高めるために,注意に基づく特徴融合を行うことで特徴の冗長性を緩和する Attn-HybridNet を提案する。
- 参考スコア(独自算出の注目度): 15.083406111874249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The principal component analysis network (PCANet) is an unsupervised
parsimonious deep network, utilizing principal components as filters in its
convolution layers. Albeit powerful, the PCANet consists of basic operations
such as principal components and spatial pooling, which suffers from two
fundamental problems. First, the principal components obtain information by
transforming it to column vectors (which we call the amalgamated view), which
incurs the loss of the spatial information in the data. Second, the generalized
spatial pooling utilized in the PCANet induces feature redundancy and also
fails to accommodate spatial statistics of natural images. In this research, we
first propose a tensor-factorization based deep network called the Tensor
Factorization Network (TFNet). The TFNet extracts features from the spatial
structure of the data (which we call the minutiae view). We then show that the
information obtained by the PCANet and the TFNet are distinctive and
non-trivial but individually insufficient. This phenomenon necessitates the
development of proposed HybridNet, which integrates the information discovery
with the two views of the data. To enhance the discriminability of hybrid
features, we propose Attn-HybridNet, which alleviates the feature redundancy by
performing attention-based feature fusion. The significance of our proposed
Attn-HybridNet is demonstrated on multiple real-world datasets where the
features obtained with Attn-HybridNet achieves better classification
performance over other popular baseline methods, demonstrating the
effectiveness of the proposed technique.
- Abstract(参考訳): 主成分分析ネットワーク(PCANet)は、主成分を畳み込み層内のフィルタとして利用する、教師なしの擬似深層ネットワークである。
強力だが、PCANetは主成分や空間プールのような基本的な操作で構成されており、2つの根本的な問題に悩まされている。
まず、主成分はコラムベクトル(アマルガメートビューと呼ばれる)に変換して情報を取得し、データ内の空間情報の損失を引き起こす。
第2に、PCANetで利用される一般化空間プーリングは特徴冗長性を誘導し、また自然画像の空間統計に適合しない。
本研究ではまず,テンソル因子化ネットワーク(TFNet)と呼ばれるテンソル因子化に基づくディープネットワークを提案する。
tfnetはデータの空間構造(minutiae viewと呼ぶ)から特徴を抽出する。
そこで, PCANet と TFNet が取得した情報は, 独特で非自明であるが, 個々に不十分であることを示す。
この現象は、情報発見とデータの2つのビューを統合するハイブリッドネットの開発を必要とする。
ハイブリッド機能の識別性を高めるために,注意に基づく特徴融合を行い,特徴冗長性を緩和するattn-hybridnetを提案する。
提案するAttn-HybridNetの意義は,Attn-HybridNetで得られた特徴が他の一般的なベースライン手法よりも優れた分類性能を達成し,提案手法の有効性を示す複数の実世界のデータセット上で実証されている。
関連論文リスト
- Unsupervised Graph Attention Autoencoder for Attributed Networks using
K-means Loss [0.0]
我々は、属性付きネットワークにおけるコミュニティ検出のための、教師なしのtextbfGraph Attention textbfAutotextbfEncoder に基づく、シンプルで効率的なクラスタリング指向モデルを提案する。
提案モデルは,ネットワークのトポロジと属性情報の両方から表現を十分に学習し,同時に2つの目的,すなわち再構築とコミュニティ発見に対処する。
論文 参考訳(メタデータ) (2023-11-21T20:45:55Z) - Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - ME-CapsNet: A Multi-Enhanced Capsule Networks with Routing Mechanism [0.0]
本研究は,各層の受容領域内の空間成分とチャネル成分の両面を高度に最適化する,新たなソリューションの実現に焦点をあてる。
我々は, カプセル層を戦略的に通過する前に重要な特徴を抽出するために, より深い畳み込み層を導入し, ME-CapsNetを提案する。
より深い畳み込み層にはSqueeze-Excitationネットワークのブロックが含まれており、重要な特徴情報を失うことなく、サンプリングアプローチを使用して相互依存関係を再構築する。
論文 参考訳(メタデータ) (2022-03-29T13:29:38Z) - ACFNet: Adaptively-Cooperative Fusion Network for RGB-D Salient Object
Detection [0.0]
本稿では適応的協調型核融合ネットワーク(ACFNet)を提案する。
異なるオブジェクトに対して、異なるタイプの畳み込みによって生成された特徴は、セグメンテーション最適化のためのゲート機構によって強化または抑制される。
RGB-D SODデータセット上で行った十分な実験は、提案するネットワークが18の最先端アルゴリズムに対して好適に動作することを示す。
論文 参考訳(メタデータ) (2021-09-10T02:34:27Z) - CPFN: Cascaded Primitive Fitting Networks for High-Resolution Point
Clouds [51.47100091540298]
本稿では,グローバルおよびローカルなプリミティブ検出ネットワークの検出結果をアダプティブパッチサンプリングネットワークに依存したCPFN(Cascaded Primitive Fitting Networks)を提案する。
CPFNは、高解像度のポイントクラウドデータセット上で、最先端のSPFNのパフォーマンスを13-14%改善し、特に20-22%の微細プリミティブの検出を改善している。
論文 参考訳(メタデータ) (2021-08-31T23:27:33Z) - Attention-driven Graph Clustering Network [49.040136530379094]
我々は、注意駆動グラフクラスタリングネットワーク(AGCN)という新しいディープクラスタリング手法を提案する。
AGCNは、ノード属性特徴とトポロジグラフ特徴を動的に融合するために、不均一な融合モジュールを利用する。
AGCNは、教師なしの方法で特徴学習とクラスタ割り当てを共同で行うことができる。
論文 参考訳(メタデータ) (2021-08-12T02:30:38Z) - Deep Fusion Clustering Network [38.540761683389135]
深層クラスタリングのための深層フュージョンクラスタリングネットワーク(DFCN)を提案する。
本ネットワークでは,オートエンコーダとグラフオートエンコーダが学習した表現を明示的にマージするために,相互依存学習に基づく構造化と属性情報融合(SAIF)モジュールを提案する。
6つのベンチマークデータセットの実験により、提案されたDFCNは最先端のディープクラスタリング手法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-12-15T09:37:59Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。