論文の概要: Reparameterization through Spatial Gradient Scaling
- arxiv url: http://arxiv.org/abs/2303.02733v2
- Date: Tue, 7 Mar 2023 02:07:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 11:50:09.576562
- Title: Reparameterization through Spatial Gradient Scaling
- Title(参考訳): 空間勾配スケーリングによる再パラメータ化
- Authors: Alexander Detkov, Mohammad Salameh, Muhammad Fetrat Qharabagh, Jialin
Zhang, Wei Lui, Shangling Jui, Di Niu
- Abstract要約: リパラメータ化は、学習中に畳み込み層を等価なマルチブランチ構造に変換することによって、ディープニューラルネットワークの一般化を改善することを目的としている。
本稿では,畳み込みネットワークにおける重み間の学習焦点を再分配する空間勾配スケーリング手法を提案する。
- 参考スコア(独自算出の注目度): 69.27487006953852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reparameterization aims to improve the generalization of deep neural networks
by transforming convolutional layers into equivalent multi-branched structures
during training. However, there exists a gap in understanding how
reparameterization may change and benefit the learning process of neural
networks. In this paper, we present a novel spatial gradient scaling method to
redistribute learning focus among weights in convolutional networks. We prove
that spatial gradient scaling achieves the same learning dynamics as a branched
reparameterization yet without introducing structural changes into the network.
We further propose an analytical approach that dynamically learns scalings for
each convolutional layer based on the spatial characteristics of its input
feature map gauged by mutual information. Experiments on CIFAR-10, CIFAR-100,
and ImageNet show that without searching for reparameterized structures, our
proposed scaling method outperforms the state-of-the-art reparameterization
strategies at a lower computational cost.
- Abstract(参考訳): 再パラメータ化は、トレーニング中に畳み込み層を等価なマルチブランチ構造に変換することによって、ディープニューラルネットワークの一般化を改善することを目的としている。
しかし、再パラメータ化がどのように変化し、ニューラルネットワークの学習プロセスに利益をもたらすかを理解するにはギャップがある。
本稿では,畳み込みネットワークにおける重み間の学習焦点を再分配する空間勾配スケーリング手法を提案する。
空間勾配スケーリングは分岐再パラメータ化と同じ学習ダイナミクスをネットワークの構造的変化を伴わずに達成できることを実証する。
さらに,各畳み込み層について,相互情報を用いて計測した入力特徴マップの空間特性に基づいて動的にスケーリングを学習する解析手法を提案する。
CIFAR-10, CIFAR-100, ImageNetによる実験により, 再パラメータ化構造を探索することなく, 提案手法は, 計算コストの低減を図った。
関連論文リスト
- Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Accelerated Training via Incrementally Growing Neural Networks using
Variance Transfer and Learning Rate Adaptation [34.7523496790944]
本研究では,ニューラルネットワークを効率的に成長させる手法を開発し,パラメータ化と最適化の戦略をトレーニングダイナミクスを考慮して設計する。
提案手法は,従来のトレーニング予算の大部分を節約しつつ,大規模な固定サイズモデルのトレーニングよりも高い精度で達成可能であることを示す。
論文 参考訳(メタデータ) (2023-06-22T07:06:45Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Quiver neural networks [5.076419064097734]
ニューラルネットワーク接続アーキテクチャの解析に対する一様理論的アプローチを開発する。
数学におけるquiver表現理論にインスパイアされたこのアプローチは、精巧なデータフローを捉えるためのコンパクトな方法を与える。
論文 参考訳(メタデータ) (2022-07-26T09:42:45Z) - SIRe-Networks: Skip Connections over Interlaced Multi-Task Learning and
Residual Connections for Structure Preserving Object Classification [28.02302915971059]
本稿では、オブジェクト分類タスクにおける消失勾配を低減するために、SIReを定義したインターレース型マルチタスク学習戦略を提案する。
提案手法は、自動エンコーダを介して入力画像構造を保存することにより、畳み込みニューラルネットワーク(CNN)を直接改善する。
提案手法を検証するため、SIRe戦略を介して単純なCNNと有名なネットワークの様々な実装を拡張し、CIFAR100データセットで広範囲にテストする。
論文 参考訳(メタデータ) (2021-10-06T13:54:49Z) - The Impact of Reinitialization on Generalization in Convolutional Neural
Networks [3.462210753108297]
12のベンチマーク画像分類データセットにまたがる複数の畳み込みアーキテクチャにおける異なる再初期化手法の影響について検討する。
本稿では,従来の手法よりも優れた階層的再初期化アルゴリズムを提案する。
我々のメッセージは、ボトムアップ階層の再初期化を用いて、小さなデータセットに対して畳み込みニューラルネットワークの精度を改善することができるということだ。
論文 参考訳(メタデータ) (2021-09-01T09:25:57Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Self-Reorganizing and Rejuvenating CNNs for Increasing Model Capacity
Utilization [8.661269034961679]
本稿では,ニューラルネットワークの計算資源利用を改善するための生物学的手法を提案する。
提案手法では,畳み込み層のチャネルアクティベーションを利用して,その層パラメータを再構成する。
再生されたパラメータは、再構成された生存パラメータから学んだことを補うために異なる特徴を学ぶ。
論文 参考訳(メタデータ) (2021-02-13T06:19:45Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。