論文の概要: Learning credit assignment
- arxiv url: http://arxiv.org/abs/2001.03354v2
- Date: Sat, 3 Oct 2020 09:35:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 23:05:39.239984
- Title: Learning credit assignment
- Title(参考訳): クレジットの割り当てを学ぶ
- Authors: Chan Li and Haiping Huang
- Abstract要約: 学習が意思決定を達成するために膨大な数のパラメータをどのように調整するかは分かっていない。
本稿では,サブネットワークのアンサンブルが分類タスクのために訓練されていることを前提として,平均場学習モデルを提案する。
我々のモデルは、決定に至るクレジットの割り当てを学習し、同じタスクを達成できるサブネットワークの集合を予測する。
- 参考スコア(独自算出の注目度): 2.0711789781518752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved impressive prediction accuracies in a variety of
scientific and industrial domains. However, the nested non-linear feature of
deep learning makes the learning highly non-transparent, i.e., it is still
unknown how the learning coordinates a huge number of parameters to achieve a
decision making. To explain this hierarchical credit assignment, we propose a
mean-field learning model by assuming that an ensemble of sub-networks, rather
than a single network, are trained for a classification task. Surprisingly, our
model reveals that apart from some deterministic synaptic weights connecting
two neurons at neighboring layers, there exist a large number of connections
that can be absent, and other connections can allow for a broad distribution of
their weight values. Therefore, synaptic connections can be classified into
three categories: very important ones, unimportant ones, and those of
variability that may partially encode nuisance factors. Therefore, our model
learns the credit assignment leading to the decision, and predicts an ensemble
of sub-networks that can accomplish the same task, thereby providing insights
toward understanding the macroscopic behavior of deep learning through the lens
of distinct roles of synaptic weights.
- Abstract(参考訳): ディープラーニングは、さまざまな科学分野や産業分野において、驚くべき予測精度を達成した。
しかし、深層学習のネストされた非線形性は、学習がいかに多くのパラメータを協調させ、意思決定を達成するのかを、非常に非透明なものにする。
この階層的信用代入を説明するために,単一ネットワークではなくサブネットワークのアンサンブルが分類タスクのために訓練されていることを前提として,平均場学習モデルを提案する。
驚くべきことに、我々のモデルは、隣り合う2つのニューロンを繋ぐ決定論的シナプス重みとは別に、欠落する可能性のある多くの接続が存在し、他の接続がそれらの重み値の広範な分布を可能にすることを明らかにしている。
したがってシナプス接続は3つのカテゴリに分類できる: 非常に重要なもの、重要でないもの、そして部分的に迷惑要因を符号化する可能性のある可変性のもの。
そこで本モデルは,決定に至る信用割り当てを学習し,同じタスクを遂行できるサブネットワークの集合を予測し,シナプス重みの異なる役割のレンズを通して深層学習のマクロな挙動を理解するための洞察を与える。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Memorization with neural nets: going beyond the worst case [5.662924503089369]
実際には、ディープニューラルネットワークはトレーニングデータを簡単に補間できることが多い。
しかし、実世界のデータについては、暗記能力によって提案されるよりもネットワークサイズが小さいような良質な構造の存在を直感的に期待する。
2つのクラスを持つ固定有限データセットを与えられた場合、高い確率で3層ニューラルネットワークを時間内に補間する単純なランダム化アルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-09-30T10:06:05Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - An analytic theory of shallow networks dynamics for hinge loss
classification [14.323962459195771]
我々は、単純なタイプのニューラルネットワーク(分類タスクを実行するために訓練された単一の隠れ層)のトレーニングダイナミクスについて研究する。
我々はこの理論を線形分離可能なデータセットと線形ヒンジ損失のプロトタイプケースに特化する。
これにより、トレーニングダイナミクスの減速、リッチラーニングと遅延ラーニングのクロスオーバー、オーバーフィッティングといった、現代のネットワークに現れるいくつかの現象に対処することが可能になります。
論文 参考訳(メタデータ) (2020-06-19T16:25:29Z) - The large learning rate phase of deep learning: the catapult mechanism [50.23041928811575]
問題解決可能なトレーニングダイナミクスを備えたニューラルネットワークのクラスを提示する。
現実的なディープラーニング環境において,モデルの予測とトレーニングのダイナミクスとの間には,よい一致がある。
我々の結果は、異なる学習率でトレーニングされたモデルの特性に光を当てたと信じています。
論文 参考訳(メタデータ) (2020-03-04T17:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。