論文の概要: Evolving Neuronal Plasticity Rules using Cartesian Genetic Programming
- arxiv url: http://arxiv.org/abs/2102.04312v1
- Date: Mon, 8 Feb 2021 16:17:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 05:25:38.849852
- Title: Evolving Neuronal Plasticity Rules using Cartesian Genetic Programming
- Title(参考訳): 遺伝子プログラミングを用いた神経可塑性規則の進化
- Authors: Henrik D. Mettler, Maximilian Schmidt, Walter Senn, Mihai A.
Petrovici, Jakob Jordan
- Abstract要約: 我々は遺伝的プログラミングを用いて、生物学的に妥当な人間解釈可能な可塑性規則を進化させる。
進化したルールは、既知の手設計のソリューションと競合することを示した。
- 参考スコア(独自算出の注目度): 1.1980325577555802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We formulate the search for phenomenological models of synaptic plasticity as
an optimization problem. We employ Cartesian genetic programming to evolve
biologically plausible human-interpretable plasticity rules that allow a given
network to successfully solve tasks from specific task families. While our
evolving-to-learn approach can be applied to various learning paradigms, here
we illustrate its power by evolving plasticity rules that allow a network to
efficiently determine the first principal component of its input distribution.
We demonstrate that the evolved rules perform competitively with known
hand-designed solutions. We explore how the statistical properties of the
datasets used during the evolutionary search influences the form of the
plasticity rules and discover new rules which are adapted to the structure of
the corresponding datasets.
- Abstract(参考訳): 最適化問題としてシナプス可塑性の現象論的モデルを求める。
我々は、カルテジアン遺伝的プログラミングを用いて、特定のタスクファミリーからタスクをうまく解くことができる生物学的に説明可能な可塑性規則を進化させる。
ここでは,ネットワークが入力分布の最初の主成分を効率的に決定できるような塑性規則を進化させることにより,学習パラダイムの進化と学習の進化を図示する。
我々は、進化したルールが既知のハンドデザインのソリューションと競合することを実証する。
進化探索で使用されるデータセットの統計的性質が塑性規則の形式にどのように影響するかを考察し,対応するデータセットの構造に適合する新しい規則を探索する。
関連論文リスト
- A match made in consistency heaven: when large language models meet
evolutionary algorithms [51.087936554483804]
事前訓練された大規模言語モデル(LLM)は、創造的な自然言語を生成する強力な能力を持つ。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
テキストシーケンスの生成と進化の共通の集合性と方向性に動機づけられた本論文は,LLMとEAの強い一貫性を示す。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - On sparse regression, Lp-regularization, and automated model discovery [0.0]
Lp正規化ニューラルネットワークは、解釈可能なモデルと物理的に意味のあるパラメータの両方を同時に検出できることを示す。
データから物質モデルを自動的に発見する能力は、生成材料設計に多大な応用をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-10-09T05:34:21Z) - Learnable Topological Features for Phylogenetic Inference via Graph
Neural Networks [7.310488568715925]
学習可能なトポロジカル特徴に基づく系統的推論のための新しい構造表現法を提案する。
ディリクレエネルギーを最小化する生のノード特徴を現代のグラフ表現学習技術と組み合わせることで、学習可能なトポロジカル特徴は系統樹の効率的な構造情報を提供することができる。
論文 参考訳(メタデータ) (2023-02-17T12:26:03Z) - Evolving-to-Learn Reinforcement Learning Tasks with Spiking Neural
Networks [0.0]
本稿では,手作業に適したシナプス可塑性規則を進化させる進化的アルゴリズムを提案する。
我々は、XORとカートポールタスクをうまく解く学習ルールを見つけ、文学のベースラインルールより優れた新しい学習ルールを発見する。
論文 参考訳(メタデータ) (2022-02-24T19:07:23Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - A Spiking Neuron Synaptic Plasticity Model Optimized for Unsupervised
Learning [0.0]
スパイキングニューラルネットワーク(SNN)は、教師なし、教師なし、強化学習など、あらゆる種類の学習タスクを実行するための視点ベースとして考えられている。
SNNでの学習は、シナプス前およびシナプス後ニューロンの活動に依存するシナプス重みのダイナミクスを決定する規則であるシナプス可塑性によって実施される。
論文 参考訳(メタデータ) (2021-11-12T15:26:52Z) - Epigenetic evolution of deep convolutional models [81.21462458089142]
我々は、より深い畳み込みモデルを進化させるために、これまで提案されていた神経進化の枠組みを構築した。
異なる形状と大きさのカーネルを同一層内に共存させる畳み込み層配置を提案する。
提案したレイアウトにより、畳み込み層内の個々のカーネルのサイズと形状を、対応する新しい突然変異演算子で進化させることができる。
論文 参考訳(メタデータ) (2021-04-12T12:45:16Z) - Energy Decay Network (EDeN) [0.0]
フレームワークは、潜在的な構造表現を通じて経験の遺伝的伝達を開発しようとします。
成功した経路は、時代ごとのスパイク分布の安定性によって定義される。
論文 参考訳(メタデータ) (2021-03-10T23:17:59Z) - Emergent Hand Morphology and Control from Optimizing Robust Grasps of
Diverse Objects [63.89096733478149]
多様な物体をつかむために、効果的なハンドデザインが自然に現れるデータ駆動型アプローチを紹介します。
形態と把持スキルを共同で効率的に設計するベイズ最適化アルゴリズムを開発した。
我々は,新しい物体をつかむための堅牢で費用効率のよい手形態を発見するためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T17:52:29Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Rewriting a Deep Generative Model [56.91974064348137]
我々は,深層生成モデルによって符号化された特定の規則の操作という,新たな問題設定を導入する。
本稿では,ディープネットワークの層を線形連想メモリとして操作することで,所望のルールを変更する定式化を提案する。
本稿では,生成モデルのルールを対話的に変更し,望ましい効果を得られるユーザインタフェースを提案する。
論文 参考訳(メタデータ) (2020-07-30T17:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。