論文の概要: To update or not to update? Neurons at equilibrium in deep models
- arxiv url: http://arxiv.org/abs/2207.09455v1
- Date: Tue, 19 Jul 2022 08:07:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 12:43:23.197625
- Title: To update or not to update? Neurons at equilibrium in deep models
- Title(参考訳): 更新するか更新しないか?
深部モデルにおける平衡ニューロン
- Authors: Andrea Bragagnolo and Enzo Tartaglione and Marco Grangetto
- Abstract要約: 近年の深層学習の進歩は, 完全学習モデルにおけるアポテリオリ情報によって, パラメータのサブセットを単に訓練することで, 同一の性能に適合できることを示した。
本研究では、単一パラメータからニューロン全体の挙動に焦点を移し、ニューロン平衡(NEq)の概念を活用する。
提案手法は、NEqを検証し、神経平衡が特定の学習設定に依存することを観察し、様々な最先端の学習戦略とタスクで検証されている。
- 参考スコア(独自算出の注目度): 8.72305226979945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in deep learning optimization showed that, with some
a-posteriori information on fully-trained models, it is possible to match the
same performance by simply training a subset of their parameters. Such a
discovery has a broad impact from theory to applications, driving the research
towards methods to identify the minimum subset of parameters to train without
look-ahead information exploitation. However, the methods proposed do not match
the state-of-the-art performance, and rely on unstructured sparsely connected
models. In this work we shift our focus from the single parameters to the
behavior of the whole neuron, exploiting the concept of neuronal equilibrium
(NEq). When a neuron is in a configuration at equilibrium (meaning that it has
learned a specific input-output relationship), we can halt its update; on the
contrary, when a neuron is at non-equilibrium, we let its state evolve towards
an equilibrium state, updating its parameters. The proposed approach has been
tested on different state-of-the-art learning strategies and tasks, validating
NEq and observing that the neuronal equilibrium depends on the specific
learning setup.
- Abstract(参考訳): ディープラーニング最適化の最近の進歩は、完全学習モデルに関するいくつかのアポテリオリ情報により、パラメータのサブセットを単に訓練することで、同じ性能に適合できることを示した。
このような発見は理論から応用まで幅広い影響を及ぼし、ルックアヘッド情報の利用なしにトレーニングするパラメータの最小サブセットを特定する方法の研究を推進している。
しかし,提案手法は最先端の性能と一致せず,非構造的疎結合モデルに依存している。
この研究では、焦点を単一パラメータから全ニューロンの挙動にシフトさせ、ニューロン平衡(neq)の概念を生かした。
ニューロンが平衡状態にあるとき(特定の入出力関係を学んだことを意味する)、その更新を停止することができるが、逆にニューロンが非平衡状態である場合、状態は平衡状態に向かって進化させ、そのパラメータを更新する。
提案手法は,neqを検証し,神経の平衡が特定の学習条件に依存することを観察し,最先端の学習戦略と課題について検証した。
関連論文リスト
- Let's Focus on Neuron: Neuron-Level Supervised Fine-tuning for Large Language Model [43.107778640669544]
大型言語モデル(LLM)は、様々な行動や役割を示すニューロンで構成されている。
最近の研究によると、全てのニューロンが異なるデータセットで活動しているわけではない。
我々は,パラメータ学習の粒度を個々のニューロンに絞り込む新しいアプローチであるNeFT(Neuron-Level Fine-Tuning)を導入する。
論文 参考訳(メタデータ) (2024-03-18T09:55:01Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Supervised Parameter Estimation of Neuron Populations from Multiple
Firing Events [3.2826301276626273]
本研究では,一対のスパイキング系列とパラメータラベルからなる学習セットから,ニューロン集団のパラメータを自動的に学習する手法について,教師あり学習を通して検討した。
我々は、ニューロンモデルを用いて、異なるパラメータ設定での計算において多くのニューロン集団をシミュレートする。
次に、遺伝的検索、ベイズ逐次推定、ランダムウォーク近似モデルなどの古典的手法と比較する。
論文 参考訳(メタデータ) (2022-10-02T03:17:05Z) - Modeling Implicit Bias with Fuzzy Cognitive Maps [0.0]
本稿では、構造化データセットにおける暗黙バイアスを定量化するファジィ認知マップモデルを提案する。
本稿では,ニューロンの飽和を防止する正規化様伝達関数を備えた新しい推論機構を提案する。
論文 参考訳(メタデータ) (2021-12-23T17:04:12Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - On the Evolution of Neuron Communities in a Deep Learning Architecture [0.7106986689736827]
本稿では,ディープラーニングに基づく分類モデルのニューロン活性化パターンについて検討する。
コミュニティの品質(モジュラリティ)とエントロピーの両方が、ディープラーニングモデルのパフォーマンスと密接に関連していることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:09:55Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Spherical Motion Dynamics: Learning Dynamics of Neural Network with
Normalization, Weight Decay, and SGD [105.99301967452334]
SMD (Spherical Motion Dynamics) と名付けられた, 正規化, 重崩壊 (WD) , SGD (運動量) を伴うニューラルネットワークの学習力学について述べる。
我々は,ImageNet や MSCOCO など様々なコンピュータビジョンタスクにおける仮定と理論的結果を標準設定で検証する。
論文 参考訳(メタデータ) (2020-06-15T14:16:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。