論文の概要: Train-by-Reconnect: Decoupling Locations of Weights from their Values
- arxiv url: http://arxiv.org/abs/2003.02570v6
- Date: Mon, 7 Dec 2020 06:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 06:33:58.223483
- Title: Train-by-Reconnect: Decoupling Locations of Weights from their Values
- Title(参考訳): train-by-reconnect: 重みの場所を値から切り離す
- Authors: Yushi Qiu, Reiji Suda
- Abstract要約: トレーニングされていないディープニューラルネットワーク(DNN)は、トレーニングされたニューラルネットワークとは異なることを示す。
重みをリコネクションすることでDNNをトレーニングするためのLookahead Permutation(LaPerm)という新しい手法を提案する。
初期重みが1つの値を共有すると、我々の手法はより精度のよい重み付きニューラルネットワークを見つける。
- 参考スコア(独自算出の注目度): 6.09170287691728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What makes untrained deep neural networks (DNNs) different from the trained
performant ones? By zooming into the weights in well-trained DNNs, we found it
is the location of weights that hold most of the information encoded by the
training. Motivated by this observation, we hypothesize that weights in
stochastic gradient-based method trained DNNs can be separated into two
dimensions: the locations of weights and their exact values. To assess our
hypothesis, we propose a novel method named Lookahead Permutation (LaPerm) to
train DNNs by reconnecting the weights. We empirically demonstrate the
versatility of LaPerm while producing extensive evidence to support our
hypothesis: when the initial weights are random and dense, our method
demonstrates speed and performance similar to or better than that of regular
optimizers, e.g., Adam; when the initial weights are random and sparse (many
zeros), our method changes the way neurons connect and reach accuracy
comparable to that of a well-trained fully initialized network; when the
initial weights share a single value, our method finds weight agnostic neural
network with far better-than-chance accuracy.
- Abstract(参考訳): トレーニングされていないディープニューラルネットワーク(DNN)とトレーニングされたパフォーマンスニューラルネットワークとの違いは何ですか?
十分に訓練されたDNNで重みを拡大することにより、トレーニングによって符号化された情報のほとんどを保持する重みの位置が明らかになった。
この観測により、確率勾配法に基づくDNNの重みは、重みの位置とその正確な値の2次元に分けることができると仮定した。
本仮説を評価するために,重み付けを再接続してdnnを訓練するための新しい手法としてlookahead permutation (laperm)を提案する。
We empirically demonstrate the versatility of LaPerm while producing extensive evidence to support our hypothesis: when the initial weights are random and dense, our method demonstrates speed and performance similar to or better than that of regular optimizers, e.g., Adam; when the initial weights are random and sparse (many zeros), our method changes the way neurons connect and reach accuracy comparable to that of a well-trained fully initialized network; when the initial weights share a single value, our method finds weight agnostic neural network with far better-than-chance accuracy.
関連論文リスト
- Efficient Training with Denoised Neural Weights [65.14892033932895]
この研究は、初期化のために神経重みを合成するウェイトジェネレータを構築するための新しい一歩を踏み出した。
本稿では,モデル重みの収集を容易にするために,GANを用いた画像間翻訳タスクを例に挙げる。
拡散モデルによって予測される重み付き画像翻訳モデルを初期化することにより、トレーニングは43.3秒しか必要としない。
論文 参考訳(メタデータ) (2024-07-16T17:59:42Z) - Stochastic Approximation Approach to Federated Machine Learning [0.0]
本稿では、近似(SA)フレームワークにおけるフェデレートラーニング(FL)について検討する。
FLは、さまざまな参加者やクライアント間でニューラルネットワークモデルをトレーニングする、協調的な方法である。
提案アルゴリズムは頑健であり,より信頼性の高い重み推定を行う。
論文 参考訳(メタデータ) (2024-02-20T12:00:25Z) - Improved Generalization of Weight Space Networks via Augmentations [53.87011906358727]
深度重み空間(DWS)における学習は新たな研究方向であり、2次元および3次元神経場(INRs, NeRFs)への応用
我々は、この過度な適合の理由を実証的に分析し、主要な理由は、DWSデータセットの多様性の欠如であることがわかった。
そこで本研究では,重み空間におけるデータ拡張戦略について検討し,重み空間に適応したMixUp法を提案する。
論文 参考訳(メタデータ) (2024-02-06T15:34:44Z) - Weight Compander: A Simple Weight Reparameterization for Regularization [5.744133015573047]
我々は、ディープニューラルネットワークの一般化を改善するための新しい効果的な方法であるウェイトコンパンダを導入する。
標準正規化法に加えて重みコンパンダを用いることで,ニューラルネットワークの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-06-29T14:52:04Z) - Understanding Weight Similarity of Neural Networks via Chain
Normalization Rule and Hypothesis-Training-Testing [58.401504709365284]
非畳み込みニューラルネットワークの重み類似度を定量化できる重み類似度尺度を提案する。
まず,ニューラルネットワークの重みをチェーン正規化規則により正規化し,重み訓練表現学習を導入する。
ニューラルネットワークの重み類似性に関する仮説を検証するため,従来の仮説検証手法を拡張した。
論文 参考訳(メタデータ) (2022-08-08T19:11:03Z) - ReCU: Reviving the Dead Weights in Binary Neural Networks [153.6789340484509]
我々は,BNNのトレーニング中にほとんど更新されない重みのグループを指す「死重み」の影響について検討する。
ReCUによる「死重み」の復活は、量子化誤差が小さくなることを示す。
提案手法は,高速なBNNトレーニングだけでなく,CIFAR-10およびImageNet上での最先端のパフォーマンスも提供する。
論文 参考訳(メタデータ) (2021-03-23T08:11:20Z) - Training Sparse Neural Networks using Compressed Sensing [13.84396596420605]
本研究では,プレニングとトレーニングを1ステップに組み合わせた圧縮センシングに基づく新しい手法の開発と試験を行う。
具体的には、トレーニング中の重みを適応的に重み付けした$ell1$のペナルティを利用して、スパースニューラルネットワークをトレーニングするために、正規化二重平均化(RDA)アルゴリズムの一般化と組み合わせる。
論文 参考訳(メタデータ) (2020-08-21T19:35:54Z) - Training highly effective connectivities within neural networks with
randomly initialized, fixed weights [4.56877715768796]
重みの符号を反転させてネットワークを訓練する新しい方法を提案する。
重みが一定等級であっても、高非対称分布から重みが引き出される場合でも良い結果が得られる。
論文 参考訳(メタデータ) (2020-06-30T09:41:18Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - Predicting Neural Network Accuracy from Weights [25.73213712719546]
トレーニングされたニューラルネットワークの精度は、その重みだけを見て驚くほど正確に予測できることを実験的に示す。
この分野のさらなる研究を促進するために、4つの異なるデータセットでトレーニングされた120kの畳み込みニューラルネットワークのコレクションをリリースする。
論文 参考訳(メタデータ) (2020-02-26T13:06:14Z) - Distance-Based Regularisation of Deep Networks for Fine-Tuning [116.71288796019809]
我々は,仮説クラスを,初期訓練前の重みを中心にした小さな球面に制約するアルゴリズムを開発した。
実験的な評価は、我々のアルゴリズムがうまく機能していることを示し、理論的な結果を裏付けるものである。
論文 参考訳(メタデータ) (2020-02-19T16:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。