論文の概要: Feature Mining: A Novel Training Strategy for Convolutional Neural
Network
- arxiv url: http://arxiv.org/abs/2107.08421v1
- Date: Sun, 18 Jul 2021 12:14:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:59:20.330684
- Title: Feature Mining: A Novel Training Strategy for Convolutional Neural
Network
- Title(参考訳): 機能マイニング:畳み込みニューラルネットワークのための新しいトレーニング戦略
- Authors: Tianshu Xie, Xuan Cheng, Xiaomin Wang, Minghui Liu, Jiali Deng, Ming
Liu
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(CNN)のための新しいトレーニング戦略であるFeature Miningを提案する。
特徴の異なる部分に含まれる意味は異なるが、フィードフォワードの伝搬中にネットワークは必然的にローカル情報を失う。
局所的な特徴の学習を強化するために、Feature Miningは、完全な特徴を2つの補完的な部分に分割し、これらの分割された特徴を再利用して、ネットワークがより局所的な情報を学習できるようにする。
- 参考スコア(独自算出の注目度): 6.066543113636522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel training strategy for convolutional neural
network(CNN) named Feature Mining, that aims to strengthen the network's
learning of the local feature. Through experiments, we find that semantic
contained in different parts of the feature is different, while the network
will inevitably lose the local information during feedforward propagation. In
order to enhance the learning of local feature, Feature Mining divides the
complete feature into two complementary parts and reuse these divided feature
to make the network learn more local information, we call the two steps as
feature segmentation and feature reusing. Feature Mining is a parameter-free
method and has plug-and-play nature, and can be applied to any CNN models.
Extensive experiments demonstrate the wide applicability, versatility, and
compatibility of our method.
- Abstract(参考訳): 本稿では,局所的特徴に対するネットワークの学習を強化することを目的とした,畳み込みニューラルネットワーク(CNN)の新たなトレーニング戦略であるFeature Miningを提案する。
実験により、特徴の異なる部分に含まれる意味は異なるが、ネットワークはフィードフォワードの伝搬中に必然的にローカル情報を失うことが判明した。
局所的特徴の学習を強化するため,特徴マイニングでは,完全特徴を2つの補完的部分に分け,これらの分割特徴を再利用して,より局所的情報をネットワークに提供し,特徴分割と特徴再利用と呼ぶ。
特徴マイニングはパラメータフリーな手法であり、プラグアンドプレイの性質を持ち、任意のcnnモデルに適用することができる。
広範な実験により,本手法の適用性,汎用性,互換性が実証された。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Half-Space Feature Learning in Neural Networks [2.3249139042158853]
現在、ニューラルネットワークの特徴学習には2つの極端な視点がある。
どちらの解釈も、新しい観点からは正しいとは考えにくい。
私たちはこの代替解釈を使って、Deep Linearly Gated Network (DLGN)と呼ばれるモデルを動かす。
論文 参考訳(メタデータ) (2024-04-05T12:03:19Z) - A General Framework for Interpretable Neural Learning based on Local Information-Theoretic Goal Functions [1.5236380958983644]
我々は、教師なし、教師なし、メモリ学習のタスクを実行するために、'不定型'ニューラルネットワークを導入する。
PIDフレームワークの解釈可能な性質を活用することで、インフォモーフィックネットワークは、局所学習の複雑な構造を理解するための貴重なツールとなる。
論文 参考訳(メタデータ) (2023-06-03T16:34:25Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Counting with Adaptive Auxiliary Learning [23.715818463425503]
本稿では,オブジェクトカウント問題に対する適応型補助的タスク学習に基づくアプローチを提案する。
本研究では,タスク共有とタスクカスタマイズの両機能学習を実現するために,アダプティブ・アダプティブ・アダプティブ・共有バックボーンネットワークを開発した。
本手法は,現在最先端のタスク学習に基づくカウント手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-03-08T13:10:17Z) - Increasing Depth of Neural Networks for Life-long Learning [2.0305676256390934]
本稿では,ニューラルネットワークの深度増加に基づく連続学習手法を提案する。
この研究は、ニューラルネットワークの深さを延ばすことが、生涯にわたる学習環境で有益かどうかを探求する。
論文 参考訳(メタデータ) (2022-02-22T11:21:41Z) - Interplay between depth of neural networks and locality of target
functions [5.33024001730262]
対象関数の深度と局所性の間に顕著な相互作用を報告した。
深度は局所関数の学習には有益であるが,グローバル関数の学習には有害であることがわかった。
論文 参考訳(メタデータ) (2022-01-28T12:41:24Z) - Learning distinct features helps, provably [98.78384185493624]
最小二乗損失で訓練された2層ニューラルネットワークによって学習された特徴の多様性について検討する。
隠蔽層の特徴間の平均的な$L$-distanceで多様性を測定する。
論文 参考訳(メタデータ) (2021-06-10T19:14:45Z) - Unsupervised Learning for Asynchronous Resource Allocation in Ad-hoc
Wireless Networks [122.42812336946756]
集約グラフニューラルネットワーク(Agg-GNN)に基づく教師なし学習手法を設計する。
アクティベーションパターンを各ノードの特徴としてモデル化し,ポリシーに基づくリソース割り当て手法を訓練することにより,非同期性を捉える。
論文 参考訳(メタデータ) (2020-11-05T03:38:36Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。