論文の概要: The Evolution of Learning Algorithms for Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2512.01203v1
- Date: Mon, 01 Dec 2025 02:38:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.642479
- Title: The Evolution of Learning Algorithms for Artificial Neural Networks
- Title(参考訳): ニューラルネットワーク学習アルゴリズムの進化
- Authors: Jonathan Baxter,
- Abstract要約: 本稿では,局所学習規則に従って,計算ノード間の重み付けを遺伝的に修正したニューラルネットワークモデルについて検討する。
ネットワーク全体の分散プロパティとして学習行動がどのように現れるかを示す。
最後に,発見ツールとしての遺伝的アルゴリズムの有用性について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we investigate a neural network model in which weights between computational nodes are modified according to a local learning rule. To determine whether local learning rules are sufficient for learning, we encode the network architectures and learning dynamics genetically and then apply selection pressure to evolve networks capable of learning the four boolean functions of one variable. The successful networks are analysed and we show how learning behaviour emerges as a distributed property of the entire network. Finally the utility of genetic algorithms as a tool of discovery is discussed.
- Abstract(参考訳): 本稿では,局所学習規則に従って計算ノード間の重みを修正したニューラルネットワークモデルについて検討する。
局所学習規則が学習に十分かどうかを判断するために,ネットワークアーキテクチャと動的学習を遺伝的にエンコードし,各変数のブール関数を学習できる進化的ネットワークに選択圧力を適用する。
成功したネットワークは分析され、ネットワーク全体の分散プロパティとして学習行動がどのように現れるかを示す。
最後に,発見ツールとしての遺伝的アルゴリズムの有用性について論じる。
関連論文リスト
- Shrinkage Initialization for Smooth Learning of Neural Networks [14.176838845627744]
ニューラルネットワークに対する改良されたアプローチが提示され、ネットワークの各レイヤの変換を初期化するための縮小アプローチが採用されている。
ランダムな層を持つ任意のネットワークの構造に対して普遍的に適応できるが、安定した性能が得られる。
論文 参考訳(メタデータ) (2025-04-12T07:11:35Z) - Feature Learning beyond the Lazy-Rich Dichotomy: Insights from Representational Geometry [7.517013801971377]
タスク関連情報を神経表現に統合することは、生物学的および人工知能システムの基本的な能力である。
最近の理論では、ニューラルネットワークがタスク関連の特徴を積極的に学習するリッチなレジームと、ネットワークがランダムな特徴モデルのように振る舞う遅延レジームという2つのレジームに分類されている。
ニューラル表現の幾何学を通して特徴学習を研究するための分析フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-23T15:39:56Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - When Deep Learning Meets Polyhedral Theory: A Survey [5.59187625600025]
過去10年間で、ディープ・ニューラル・ラーニングの顕著な精度のおかげで、ディープは予測モデリングの一般的な方法論となった。
一方、ニューラルネットワークの構造はより単純で線形な関数に収束した。
論文 参考訳(メタデータ) (2023-04-29T11:46:53Z) - How and what to learn:The modes of machine learning [7.085027463060304]
本稿では, 重み経路解析(WPA)と呼ばれる新しい手法を提案し, 多層ニューラルネットワークのメカニズムについて検討する。
WPAは、ニューラルネットワークが情報を「ホログラフィック」な方法で保存し、活用していることを示し、ネットワークはすべてのトレーニングサンプルをコヒーレントな構造にエンコードする。
隠れた層状ニューロンは学習過程の後半で異なるクラスに自己組織化することが判明した。
論文 参考訳(メタデータ) (2022-02-28T14:39:06Z) - A multi-agent model for growing spiking neural networks [0.0]
このプロジェクトでは、学習メカニズムとして、スパイキングニューラルネットワークのニューロン間の接続を拡大するためのルールについて検討している。
シミュレーション環境での結果は、与えられたパラメータセットに対して、テストされた関数を再現するトポロジに到達可能であることを示した。
このプロジェクトはまた、モデルパラメーターに最適な値を得るために、遺伝的アルゴリズムのようなテクニックを使用するための扉を開く。
論文 参考訳(メタデータ) (2020-09-21T15:11:29Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。