論文の概要: Multi-Subspace Neural Network for Image Recognition
- arxiv url: http://arxiv.org/abs/2006.09618v1
- Date: Wed, 17 Jun 2020 02:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 21:04:46.204802
- Title: Multi-Subspace Neural Network for Image Recognition
- Title(参考訳): 画像認識のためのマルチサブスペースニューラルネットワーク
- Authors: Chieh-Ning Fang, Chin-Teng Lin
- Abstract要約: 画像分類タスクでは, 特徴抽出は常に大きな問題であり, クラス内変動により抽出器の設計が困難になる。
近年、ディープラーニングはデータから機能を自動的に学習することに多くの注意を払っている。
本研究では,畳み込みニューラルネットワーク(CNN)のキーコンポーネントをサブスペースの概念と組み合わせたマルチサブスペースニューラルネットワーク(MSNN)を提案する。
- 参考スコア(独自算出の注目度): 33.61205842747625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In image classification task, feature extraction is always a big issue.
Intra-class variability increases the difficulty in designing the extractors.
Furthermore, hand-crafted feature extractor cannot simply adapt new situation.
Recently, deep learning has drawn lots of attention on automatically learning
features from data. In this study, we proposed multi-subspace neural network
(MSNN) which integrates key components of the convolutional neural network
(CNN), receptive field, with subspace concept. Associating subspace with the
deep network is a novel designing, providing various viewpoints of data. Basis
vectors, trained by adaptive subspace self-organization map (ASSOM) span the
subspace, serve as a transfer function to access axial components and define
the receptive field to extract basic patterns of data without distorting the
topology in the visual task. Moreover, the multiple-subspace strategy is
implemented as parallel blocks to adapt real-world data and contribute various
interpretations of data hoping to be more robust dealing with intra-class
variability issues. To this end, handwritten digit and object image datasets
(i.e., MNIST and COIL-20) for classification are employed to validate the
proposed MSNN architecture. Experimental results show MSNN is competitive to
other state-of-the-art approaches.
- Abstract(参考訳): 画像分類タスクでは,特徴抽出は常に大きな問題である。
クラス内変動により、抽出器の設計が困難になる。
さらに、手作りの特徴抽出器は、単に新しい状況に適応できない。
近年、ディープラーニングはデータから機能を自動的に学習することに多くの注目を集めている。
本研究では,畳み込みニューラルネットワーク (cnn) の重要なコンポーネントを部分空間の概念と統合したマルチサブスペースニューラルネットワーク (msnn) を提案する。
ディープネットワークにサブスペースを関連付けることは新しい設計であり、データの様々な視点を提供する。
適応部分空間自己組織化マップ(ASSOM)によって訓練された基底ベクトルは、軸成分にアクセスし、視覚タスクの位相を歪ませることなくデータの基本パターンを抽出する受容場を定義するための伝達関数として機能する。
さらに、マルチサブスペース戦略は並列ブロックとして実装され、実世界のデータに適応し、クラス内の変数問題にもっと堅牢なデータ解釈に寄与する。
この目的のために、手書きの桁とオブジェクトの画像データセット(MNISTとCOIL-20)を用いて、提案したMSNNアーキテクチャを検証する。
実験の結果、MSNNは他の最先端のアプローチと競合していることが示された。
関連論文リスト
- On Characterizing the Evolution of Embedding Space of Neural Networks
using Algebraic Topology [9.537910170141467]
特徴埋め込み空間のトポロジがベッチ数を介してよく訓練されたディープニューラルネットワーク(DNN)の層を通過するとき、どのように変化するかを検討する。
深度が増加するにつれて、トポロジカルに複雑なデータセットが単純なデータセットに変換され、ベッチ数はその最小値に達することが示される。
論文 参考訳(メタデータ) (2023-11-08T10:45:12Z) - Variation Spaces for Multi-Output Neural Networks: Insights on Multi-Task Learning and Network Compression [28.851519959657466]
本稿では,ベクトル値ニューラルネットワークの解析のための新しい理論的枠組みを提案する。
この研究の重要な貢献は、ベクトル値変動空間に対する表現定理の開発である。
これらのベクトル値変動空間に関連するノルムは、複数のタスクに有用な特徴の学習を促進する。
論文 参考訳(メタデータ) (2023-05-25T23:32:10Z) - SDA-$x$Net: Selective Depth Attention Networks for Adaptive Multi-scale
Feature Representation [14.7929472540577]
既存のマルチスケールの解は、小さな受容場を無視しながら、受容場のサイズを増大させるリスクをもたらす。
我々は,チャネル,空間,分岐などの既存の注意次元に加えて,新しい注意次元,すなわち深さを導入する。
本稿では,様々な視覚タスクにおいて,マルチスケールオブジェクトを対称に扱うための,新しい選択的な奥行き注意ネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-21T12:49:55Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Network Comparison Study of Deep Activation Feature Discriminability
with Novel Objects [0.5076419064097732]
最先端のコンピュータビジョンアルゴリズムは、Deep Neural Networks(DNN)を特徴抽出に取り入れ、Deep Convolutional Activation Features(DeCAF)を作成する。
本研究では、6つの主要な視覚認識DNNアーキテクチャのDeCAF空間に符号化された新しい物体の視覚的外観の一般的な識別可能性について分析する。
論文 参考訳(メタデータ) (2022-02-08T07:40:53Z) - Exploring the Common Principal Subspace of Deep Features in Neural
Networks [50.37178960258464]
我々は、同じデータセットでトレーニングされた異なるディープニューラルネットワーク(DNN)が、潜在空間において共通の主部分空間を共有することを発見した。
具体的には、DNNで学んだ深い機能の主部分空間を表すために、$mathcalP$-vectorを新たに設計する。
異なるアルゴリズム/アーキテクチャで訓練された2つのDNNの比較では、小さな角度(コサインが1.0ドルに近い)が見つかっている。
論文 参考訳(メタデータ) (2021-10-06T15:48:32Z) - Spatial Dependency Networks: Neural Layers for Improved Generative Image
Modeling [79.15521784128102]
画像生成装置(デコーダ)を構築するための新しいニューラルネットワークを導入し、可変オートエンコーダ(VAE)に適用する。
空間依存ネットワーク(sdns)では、ディープニューラルネットの各レベルにおける特徴マップを空間的にコヒーレントな方法で計算する。
空間依存層による階層型vaeのデコーダの強化は密度推定を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-03-16T07:01:08Z) - Separable Batch Normalization for Robust Facial Landmark Localization
with Cross-protocol Network Training [41.82379935715916]
大規模で多様でバランスの取れたトレーニングデータは、ディープニューラルネットワークトレーニングの成功の鍵です。
多様性とバランスの取れたトレーニングサンプルを持たない小さなデータセットは、ディープネットワークのトレーニングを効果的にサポートできない。
本稿では, 顔のランドマークのロバスト化のためのクロスプロトコールネットワークトレーニング(CNT)戦略を用いた, 分離型バッチ正規化(SepBN)モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-17T13:04:06Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z) - SPIN: Structure-Preserving Inner Offset Network for Scene Text
Recognition [48.676064155070556]
任意テキストの出現は、シーンテキスト認識タスクにおいて大きな課題となる。
我々は新しい学習可能な幾何学的非関連モジュールであるStructure-Preserving Inner Offset Network (SPIN)を導入する。
SPINは、ネットワーク内のソースデータの色操作を可能にする。
論文 参考訳(メタデータ) (2020-05-27T01:47:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。