論文の概要: Evolving and Merging Hebbian Learning Rules: Increasing Generalization
by Decreasing the Number of Rules
- arxiv url: http://arxiv.org/abs/2104.07959v1
- Date: Fri, 16 Apr 2021 08:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 11:04:57.159066
- Title: Evolving and Merging Hebbian Learning Rules: Increasing Generalization
by Decreasing the Number of Rules
- Title(参考訳): hebbian learning rulesの進化と統合:ルール数の減少による一般化の促進
- Authors: Joachim Winther Pedersen and Sebastian Risi
- Abstract要約: 訓練後のアウト・オブ・ディストリビューション状況への一般化は、人工エージェントにとって依然として課題である。
我々はヘビアン学習ルールの集合を進化させ、複数の接続を1つのルールに割り当てる。
ネットワーク内の複数の接続が同じローカル学習ルールを共有することで、トレーニング可能なパラメータの数を劇的に削減できることを示す。
- 参考スコア(独自算出の注目度): 9.387749254963595
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generalization to out-of-distribution (OOD) circumstances after training
remains a challenge for artificial agents. To improve the robustness displayed
by plastic Hebbian neural networks, we evolve a set of Hebbian learning rules,
where multiple connections are assigned to a single rule. Inspired by the
biological phenomenon of the genomic bottleneck, we show that by allowing
multiple connections in the network to share the same local learning rule, it
is possible to drastically reduce the number of trainable parameters, while
obtaining a more robust agent. During evolution, by iteratively using simple
K-Means clustering to combine rules, our Evolve and Merge approach is able to
reduce the number of trainable parameters from 61,440 to 1,920, while at the
same time improving robustness, all without increasing the number of
generations used. While optimization of the agents is done on a standard
quadruped robot morphology, we evaluate the agents' performances on slight
morphology modifications in a total of 30 unseen morphologies. Our results add
to the discussion on generalization, overfitting and OOD adaptation. To create
agents that can adapt to a wider array of unexpected situations, Hebbian
learning combined with a regularising "genomic bottleneck" could be a promising
research direction.
- Abstract(参考訳): 訓練後のアウト・オブ・ディストリビューション(OOD)状況への一般化は、人工エージェントにとって依然として課題である。
プラスチックヘビーニューラルネットワークの頑健性を改善するために,複数の接続を1つのルールに割り当てたヘビー学習規則を進化させる。
遺伝的ボトルネックの生物学的現象に触発されて、ネットワーク内の複数の接続が同じローカル学習ルールを共有できるようにすることで、より堅牢なエージェントを得ながら、トレーニング可能なパラメータの数を劇的に削減できることを示す。
進化の間、単純なk-meansクラスタリングを使って規則を結合することで、我々の進化とマージのアプローチは、トレーニング可能なパラメータの数を61,440から1,920に削減できると同時に、ロバスト性も改善します。
エージェントの最適化は, 標準的な四足歩行ロボット形態で行われているが, 僅かな形態変化によるエージェントの性能を, 合計30個の非知覚形態学で評価した。
我々の結果は、一般化、過剰適合、OOD適応に関する議論に拍車をかける。
予期せぬ状況に適応できるエージェントを作成するために、ヘビー学習と正規化した「遺伝子ボトルネック」を組み合わせることは、有望な研究の方向性である。
関連論文リスト
- Boosting Adversarial Training via Fisher-Rao Norm-based Regularization [9.975998980413301]
本稿では,ロバスト性と精度のトレードオフを軽減するため,LOAT(Logit-Oriented Adversarial Training)と呼ばれる新たな正規化フレームワークを提案する。
実験により,提案した正規化戦略により,有意な対向学習アルゴリズムの性能が向上することを示した。
論文 参考訳(メタデータ) (2024-03-26T09:22:37Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - Augmentative Topology Agents For Open-Ended Learning [3.6197216586693557]
我々はエージェントとますます困難な環境を同時に進化させる手法を導入する。
Augmentative Topology EPOET (ATEP) はEPOETアルゴリズムを拡張した。
ATEPは固定トポロジーベースラインよりも多くの環境を解決できる一般的なエージェントとなる。
論文 参考訳(メタデータ) (2022-10-20T17:42:40Z) - Epigenetic evolution of deep convolutional models [81.21462458089142]
我々は、より深い畳み込みモデルを進化させるために、これまで提案されていた神経進化の枠組みを構築した。
異なる形状と大きさのカーネルを同一層内に共存させる畳み込み層配置を提案する。
提案したレイアウトにより、畳み込み層内の個々のカーネルのサイズと形状を、対応する新しい突然変異演算子で進化させることができる。
論文 参考訳(メタデータ) (2021-04-12T12:45:16Z) - Task-Agnostic Morphology Evolution [94.97384298872286]
モルフォロジーと振る舞いを共同適用する現在のアプローチでは、特定のタスクの報酬をモルフォロジー最適化のシグナルとして使用します。
これはしばしば高価なポリシー最適化を必要とし、一般化するために構築されていないタスクに依存した形態をもたらす。
我々は,これらの問題を緩和するための新しいアプローチであるタスク非依存形態進化(tame)を提案する。
論文 参考訳(メタデータ) (2021-02-25T18:59:21Z) - Testing the Genomic Bottleneck Hypothesis in Hebbian Meta-Learning [11.416394411512686]
Hebbianメタラーニングは、最近、ハード強化学習問題を解決することを約束している。
これらのアプローチの各シナプスは、非常に特定の学習規則を学習できるため、非常に異なる状況に一般化する能力は減少する可能性が高い。
我々は、ヘビアン学習規則の数を「ゲノムボトルネック」によって制限することは、正規化要因として機能する可能性があると仮定する。
論文 参考訳(メタデータ) (2020-11-13T08:49:15Z) - Adaptive Reinforcement Learning through Evolving Self-Modifying Neural
Networks [0.0]
強化学習(RL)の現在の手法は、特定の時間間隔で反射した後にのみ新しい相互作用に適応する。
最近の研究は、バックプロパゲーションを用いて訓練された単純なRLタスクの性能を向上させるために、ニューラルネットワークに神経修飾塑性を付与することでこの問題に対処している。
ここでは,四足歩行におけるメタラーニングの課題について検討する。
その結果、自己修飾プラスチックネットワークを用いて進化したエージェントは、複雑なメタ学習タスクに適応し、グラデーションを使って更新された同じネットワークよりも優れていることが示される。
論文 参考訳(メタデータ) (2020-05-22T02:24:44Z) - Hierarchically Decoupled Imitation for Morphological Transfer [95.19299356298876]
形態学的に単純なエージェントから学習情報を転送することで、より複雑なエージェントのサンプル効率を大幅に向上させることができることを示す。
まず、より単純なエージェントの低レベルを模倣するために複雑なエージェントの低レベルをインセンティブ化すると、ゼロショット高レベル転送が大幅に改善されることを示す。
第2に,高レベルのKL正規化学習が学習を安定させ,モデム崩壊を防ぐことを示す。
論文 参考訳(メタデータ) (2020-03-03T18:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。