論文の概要: Learning Compact Representations of Neural Networks using DiscriminAtive
Masking (DAM)
- arxiv url: http://arxiv.org/abs/2110.00684v1
- Date: Fri, 1 Oct 2021 23:31:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:53:31.259628
- Title: Learning Compact Representations of Neural Networks using DiscriminAtive
Masking (DAM)
- Title(参考訳): 識別マスキング(dam)を用いたニューラルネットワークのコンパクト表現の学習
- Authors: Jie Bu, Arka Daw, M. Maruf, Anuj Karpatne
- Abstract要約: ディープラーニングにおける中心的な目標は、ニューラルネットワークのすべての層における機能のコンパクトな表現を学習することである。
離散型マスキング(DAM: DiscriminAtive Masking)と呼ばれる新しい単一ステージ型プルーニング法を提案する。
提案したDAMアプローチは,様々なアプリケーションに対して極めて優れた性能を示している。
- 参考スコア(独自算出の注目度): 2.1629276606305057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A central goal in deep learning is to learn compact representations of
features at every layer of a neural network, which is useful for both
unsupervised representation learning and structured network pruning. While
there is a growing body of work in structured pruning, current state-of-the-art
methods suffer from two key limitations: (i) instability during training, and
(ii) need for an additional step of fine-tuning, which is resource-intensive.
At the core of these limitations is the lack of a systematic approach that
jointly prunes and refines weights during training in a single stage, and does
not require any fine-tuning upon convergence to achieve state-of-the-art
performance. We present a novel single-stage structured pruning method termed
DiscriminAtive Masking (DAM). The key intuition behind DAM is to
discriminatively prefer some of the neurons to be refined during the training
process, while gradually masking out other neurons. We show that our proposed
DAM approach has remarkably good performance over various applications,
including dimensionality reduction, recommendation system, graph representation
learning, and structured pruning for image classification. We also
theoretically show that the learning objective of DAM is directly related to
minimizing the L0 norm of the masking layer.
- Abstract(参考訳): ディープラーニングにおける中心的な目標は、ニューラルネットワークのすべての層における機能のコンパクトな表現を学習することであり、教師なし表現学習と構造化ネットワークプルーニングの両方に有用である。
構造化プルーニングには多くの仕事があるが、現在の最先端の手法には2つの重要な制限がある。
(i)訓練中の不安定さ、及び
(ii)資源集約的な微調整の新たなステップが必要である。
これらの制限の中核は、単一のステージでのトレーニング中に重みを共同で訓練し、洗練する体系的なアプローチが欠如しており、最先端のパフォーマンスを達成するために収束の微調整は不要である。
本稿では, 識別マスク (dam) と呼ばれる新しい単段構造プルーニング法を提案する。
DAMの背後にある重要な直感は、他のニューロンを徐々に隠蔽しながら、訓練の過程で洗練されるニューロンのいくつかを差別的に選好することである。
提案手法は,次元低減,レコメンデーションシステム,グラフ表現学習,画像分類のための構造化プルーニングなど,様々なアプリケーションに対して非常に優れた性能を示す。
また,DAMの学習目的がマスク層のL0ノルムの最小化に直接関係していることも理論的に示す。
関連論文リスト
- Deep Learning 2.0: Artificial Neurons That Matter -- Reject Correlation, Embrace Orthogonality [0.0]
ヤット生産型ニューラルネットワークであるニューラルマターネットワーク(NMN)を導入する。
NMNは活性化機能のない非線形パターン認識を実現する。
Yat-MLPは、単純さと有効性を組み合わせたニューラルネットワーク設計の新しいパラダイムを確立する。
論文 参考訳(メタデータ) (2024-11-12T16:52:51Z) - Contrastive-Adversarial and Diffusion: Exploring pre-training and fine-tuning strategies for sulcal identification [3.0398616939692777]
対人学習、コントラスト学習、拡散認知学習、通常の再構成学習といった技術が標準となっている。
この研究は、ニューラルネットワークの学習プロセスを強化するために、事前学習技術と微調整戦略の利点を解明することを目的としている。
論文 参考訳(メタデータ) (2024-05-29T15:44:51Z) - Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - Neural Maximum A Posteriori Estimation on Unpaired Data for Motion
Deblurring [87.97330195531029]
本稿では、ニューラルネットワークをトレーニングし、失明したデータから視覚情報や鋭いコンテンツを復元するためのニューラルネットワークの最大Aポストエリオリ(NeurMAP)推定フレームワークを提案する。
提案されたNeurMAPは、既存のデブロアリングニューラルネットワークに対するアプローチであり、未使用データセット上のイメージデブロアリングネットワークのトレーニングを可能にする最初のフレームワークである。
論文 参考訳(メタデータ) (2022-04-26T08:09:47Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - FFNB: Forgetting-Free Neural Blocks for Deep Continual Visual Learning [14.924672048447338]
我々は、新しい忘れのないニューラルブロック(FFNB)に基づく連続学習のための動的ネットワークアーキテクチャを考案する。
FFNB機能を新しいタスクでトレーニングするには、以前のタスクのnull-スペースのパラメータを制約する新しいプロシージャを使用する。
論文 参考訳(メタデータ) (2021-11-22T17:23:34Z) - Improving Music Performance Assessment with Contrastive Learning [78.8942067357231]
本研究では,既存のMPAシステムを改善するための潜在的手法として,コントラスト学習について検討する。
畳み込みニューラルネットワークに適用された回帰タスクに適した重み付きコントラスト損失を導入する。
この結果から,MPA回帰タスクにおいて,コントラッシブ・ベースの手法がSoTA性能に適合し,超越できることが示唆された。
論文 参考訳(メタデータ) (2021-08-03T19:24:25Z) - Learning a Domain-Agnostic Visual Representation for Autonomous Driving
via Contrastive Loss [25.798361683744684]
ドメイン認識コントラスト学習(Domain-Agnostic Contrastive Learning、DACL)は、2段階の非監視ドメイン適応フレームワークである。
提案手法は,従来の最新手法に比べ,単眼深度推定作業における性能向上を実現した。
論文 参考訳(メタデータ) (2021-03-10T07:06:03Z) - Meta-Learning with Network Pruning [40.07436648243748]
本稿では,ネットワークのキャパシティを明示的に制御することで,ネットワークプルーニングに基づくメタラーニング手法を提案する。
我々はDense-Sparse-Dense (DSD) と Iterative Hard Thresholding (IHT) の2つのネットワークプルーニングルーチンを組み込んだReptile上でのアプローチを実装した。
論文 参考訳(メタデータ) (2020-07-07T06:13:11Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。