論文の概要: Unbiased Weight Maximization
- arxiv url: http://arxiv.org/abs/2307.13270v1
- Date: Tue, 25 Jul 2023 05:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 18:15:58.763881
- Title: Unbiased Weight Maximization
- Title(参考訳): 偏りのない重量の最大化
- Authors: Stephen Chung
- Abstract要約: 本研究では,Bernolli-logistic Unitのネットワークに対する新たな学習ルールを提案する。
私たちの知る限りでは、これはベルヌーイ・ロジスティック・ユニットのネットワークにおける最初の学習ルールであり、学習速度の点でネットワークのユニット数と不偏であり、スケールする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A biologically plausible method for training an Artificial Neural Network
(ANN) involves treating each unit as a stochastic Reinforcement Learning (RL)
agent, thereby considering the network as a team of agents. Consequently, all
units can learn via REINFORCE, a local learning rule modulated by a global
reward signal, which aligns more closely with biologically observed forms of
synaptic plasticity. Nevertheless, this learning method is often slow and
scales poorly with network size due to inefficient structural credit
assignment, since a single reward signal is broadcast to all units without
considering individual contributions. Weight Maximization, a proposed solution,
replaces a unit's reward signal with the norm of its outgoing weight, thereby
allowing each hidden unit to maximize the norm of the outgoing weight instead
of the global reward signal. In this research report, we analyze the
theoretical properties of Weight Maximization and propose a variant, Unbiased
Weight Maximization. This new approach provides an unbiased learning rule that
increases learning speed and improves asymptotic performance. Notably, to our
knowledge, this is the first learning rule for a network of Bernoulli-logistic
units that is unbiased and scales well with the number of network's units in
terms of learning speed.
- Abstract(参考訳): ニューラルネットワーク(ANN)をトレーニングするための生物学的に妥当な方法は、各ユニットを確率的強化学習(RL)エージェントとして扱うことにより、ネットワークをエージェントチームとして考慮する。
その結果、すべてのユニットは、地球規模の報酬信号によって変調された局所学習規則であるREINFORCEを通じて学習することができる。
しかしながら、この学習方法は、個々の貢献を考慮せずに単一の報酬信号が全ユニットに送信されるため、非効率な構造的信用割当のため、ネットワークサイズに劣ることが多い。
提案手法である重み最大化(Weight Maximization)は、単位の報酬信号を出力重量の基準に置き換えることで、各隠れた単位がグローバルな報酬信号の代わりに出力重量の基準を最大化できるようにする。
本研究では,重量最大化の理論的性質を解析し,偏りのない重み最大化を提案する。
この新しいアプローチは、学習速度を高め、漸近的パフォーマンスを改善する、偏見のない学習ルールを提供する。
私たちの知る限りでは、これはベルヌーイ・ロジスティック・ユニットのネットワークにおける最初の学習ルールであり、学習速度の点でネットワークのユニット数と不偏であり、スケールする。
関連論文リスト
- Dense Reward for Free in Reinforcement Learning from Human Feedback [64.92448888346125]
我々は報酬モデルが単にスカラー出力よりも多くの情報を含んでいるという事実を活用している。
私たちは、これらの注意重みを使って、完了全体に沿って報酬を再分配します。
経験的に、トレーニングを安定化し、学習速度を加速し、実際は、より良い局所最適性をもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2024-02-01T17:10:35Z) - FedNAR: Federated Optimization with Normalized Annealing Regularization [54.42032094044368]
ウェイト崩壊の選択を探索し、ウェイト崩壊値が既存のFLアルゴリズムの収束に有意な影響を及ぼすことを確かめる。
我々は,既存のFLアルゴリズムにシームレスに統合可能なプラグインであるFederated Optimization with Normalized Annealing Regularization (FedNAR)を開発した。
論文 参考訳(メタデータ) (2023-10-04T21:11:40Z) - Structural Credit Assignment with Coordinated Exploration [0.0]
構造的信用割当の改善を目的とした方法は、一般的に2つのカテゴリに分類される。
本稿では,ボルツマンマシンやリカレントネットワークを協調探索に用いることを提案する。
実験結果から, 協調探査は訓練速度において, 独立探索をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2023-07-25T04:55:45Z) - IF2Net: Innately Forgetting-Free Networks for Continual Learning [49.57495829364827]
継続的な学習は、以前に学んだ知識に干渉することなく、新しい概念を漸進的に吸収することができる。
ニューラルネットワークの特性に触発され,本研究は,IF2Net(Innately Forgetting-free Network)の設計方法について検討した。
IF2Netは、1つのネットワークがテスト時にタスクのIDを告げることなく、本質的に無制限のマッピングルールを学習することを可能にする。
論文 参考訳(メタデータ) (2023-06-18T05:26:49Z) - NN-EUCLID: deep-learning hyperelasticity without stress data [0.0]
本稿では,物理一貫性のあるディープニューラルネットワークを用いた超弾性法則の教師なし学習手法を提案する。
応力-ひずみを仮定する教師付き学習とは対照的に,本手法は実測可能な全弾性場変位と大域的力可用性データのみを用いる。
論文 参考訳(メタデータ) (2022-05-04T13:54:54Z) - Learning by Competition of Self-Interested Reinforcement Learning Agents [0.0]
人工知能ニューラルネットワークは、REINFORCE学習規則を実装したユニットに報酬信号を均一にブロードキャストすることで訓練することができる。
隠れたユニットに対する報酬信号の交換を、ユニットの出力重量の標準である$L2$の変更で提案する。
実験の結果, 最大化学習ネットワークはREINFORCEよりかなり高速に学習でき, バックプロパゲーションよりもわずかに遅いことがわかった。
論文 参考訳(メタデータ) (2020-10-19T18:18:53Z) - MAP Propagation Algorithm: Faster Learning with a Team of Reinforcement
Learning Agents [0.0]
ニューラルネットワークをトレーニングする別の方法は、ネットワークの各ユニットを強化学習エージェントとして扱うことである。
本稿では,この分散を著しく低減するMAP伝搬という新しいアルゴリズムを提案する。
当社の作業は、深層強化学習におけるエージェントチームの広範な適用を可能にします。
論文 参考訳(メタデータ) (2020-10-15T17:17:39Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Neural networks with late-phase weights [66.72777753269658]
学習後期に重みのサブセットを組み込むことで,SGDの解をさらに改善できることを示す。
学習の終わりに、重み空間における空間平均を取ることにより、1つのモデルを取得する。
論文 参考訳(メタデータ) (2020-07-25T13:23:37Z) - Distance-Based Regularisation of Deep Networks for Fine-Tuning [116.71288796019809]
我々は,仮説クラスを,初期訓練前の重みを中心にした小さな球面に制約するアルゴリズムを開発した。
実験的な評価は、我々のアルゴリズムがうまく機能していることを示し、理論的な結果を裏付けるものである。
論文 参考訳(メタデータ) (2020-02-19T16:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。