論文の概要: Evolution imposes an inductive bias that alters and accelerates learning dynamics
- arxiv url: http://arxiv.org/abs/2505.10651v1
- Date: Thu, 15 May 2025 18:50:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.383124
- Title: Evolution imposes an inductive bias that alters and accelerates learning dynamics
- Title(参考訳): 進化は学習力学を変化させ、加速する誘導バイアスを課す
- Authors: Benjamin Midler, Alejandro Pan Vazquez,
- Abstract要約: 進化的最適化がニューラルネットワークの学習力学に与える影響について検討する。
我々は,アルゴリズムの自然選択とオンライン学習を組み合わせて,ニューラルネットワークの進化的条件付け手法を開発した。
結果は、進化はニューラルネットワークをチューニングして迅速な学習を可能にする誘導バイアスを構成することを示唆している。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The learning dynamics of biological brains and artificial neural networks are of interest to both neuroscience and machine learning. A key difference between them is that neural networks are often trained from a randomly initialized state whereas each brain is the product of generations of evolutionary optimization, yielding innate structures that enable few-shot learning and inbuilt reflexes. Artificial neural networks, by contrast, require non-ethological quantities of training data to attain comparable performance. To investigate the effect of evolutionary optimization on the learning dynamics of neural networks, we combined algorithms simulating natural selection and online learning to produce a method for evolutionarily conditioning artificial neural networks, and applied it to both reinforcement and supervised learning contexts. We found the evolutionary conditioning algorithm, by itself, performs comparably to an unoptimized baseline. However, evolutionarily conditioned networks show signs of unique and latent learning dynamics, and can be rapidly fine-tuned to optimal performance. These results suggest evolution constitutes an inductive bias that tunes neural systems to enable rapid learning.
- Abstract(参考訳): 生物学的脳と人工ニューラルネットワークの学習力学は、神経科学と機械学習の両方に関心がある。
両者の主な違いは、ニューラルネットワークがランダムに初期化された状態からトレーニングされるのに対して、各脳は進化の最適化の世代の結果であり、少数ショットの学習と組み込まれた反射を可能にする固有の構造をもたらすことである。
対照的に、人工ニューラルネットワークは、同等のパフォーマンスを達成するために、非倫理的なトレーニングデータを必要とする。
ニューラルネットワークの学習力学に対する進化的最適化の効果を調べるために,自然選択とオンライン学習をシミュレートしたアルゴリズムを組み合わせて,ニューラルネットワークの進化的条件付け手法を作成し,強化学習と教師あり学習コンテキストの両方に適用した。
進化的条件付けアルゴリズムは、それ自体、最適化されていないベースラインに対して可逆的に機能することがわかった。
しかし、進化的条件付きネットワークは、ユニークで潜在的な学習ダイナミクスの兆候を示し、最適性能に迅速に微調整することができる。
これらの結果は、進化は神経系をチューニングして迅速な学習を可能にする誘導バイアスを構成することを示唆している。
関連論文リスト
- Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Learning to Act through Evolution of Neural Diversity in Random Neural
Networks [9.387749254963595]
ほとんどの人工ニューラルネットワーク(ANN)では、神経計算は通常すべてのニューロン間で共有される活性化関数に抽象化される。
本稿では,複雑な計算を行うことができる多様なニューロンの集合を実現するために,神経中心パラメータの最適化を提案する。
論文 参考訳(メタデータ) (2023-05-25T11:33:04Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Interpretability of Neural Network With Physiological Mechanisms [5.1971653175509145]
ディープラーニングは、レグレッションと分類タスクの様々な領域で異常な精度を達成した強力な最先端技術として、引き続き機能している。
ニューラルネットワークモデルを最初に提案する目的は、数学的表現アプローチを使用して複雑な人間の脳を理解することを改善することである。
近年のディープラーニング技術は、ブラックボックス近似器として扱われることによって、機能的プロセスの解釈を失う傾向にある。
論文 参考訳(メタデータ) (2022-03-24T21:40:04Z) - Equilibrium Propagation for Complete Directed Neural Networks [0.0]
最も成功したニューラルネットワークの学習アルゴリズム、バックプロパゲーションは生物学的に不可能であると考えられている。
我々は,平衡伝播学習の枠組みを構築し拡張することによって,生物学的に妥当な神経学習の話題に貢献する。
論文 参考訳(メタデータ) (2020-06-15T22:12:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。