論文の概要: Exploring Major Transitions in the Evolution of Biological Cognition With Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2509.13968v1
- Date: Wed, 17 Sep 2025 13:38:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.853782
- Title: Exploring Major Transitions in the Evolution of Biological Cognition With Artificial Neural Networks
- Title(参考訳): ニューラルネットワークによる生物認知の進化における大きな変化を探る
- Authors: Konstantinos Voudouris, Andrew Barron, Marta Halina, Colin Klein, Matishalin Patel,
- Abstract要約: ネットワーク内の情報フローの変化が認知能力の推移的変化をもたらすかどうかを評価する。
以上の結果から,情報フローの変化によって認知能力が変化することが示唆された。
- 参考スコア(独自算出の注目度): 1.6540636521994554
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Transitional accounts of evolution emphasise a few changes that shape what is evolvable, with dramatic consequences for derived lineages. More recently it has been proposed that cognition might also have evolved via a series of major transitions that manipulate the structure of biological neural networks, fundamentally changing the flow of information. We used idealised models of information flow, artificial neural networks (ANNs), to evaluate whether changes in information flow in a network can yield a transitional change in cognitive performance. We compared networks with feed-forward, recurrent and laminated topologies, and tested their performance learning artificial grammars that differed in complexity, controlling for network size and resources. We documented a qualitative expansion in the types of input that recurrent networks can process compared to feed-forward networks, and a related qualitative increase in performance for learning the most complex grammars. We also noted how the difficulty in training recurrent networks poses a form of transition barrier and contingent irreversibility -- other key features of evolutionary transitions. Not all changes in network topology confer a performance advantage in this task set. Laminated networks did not outperform non-laminated networks in grammar learning. Overall, our findings show how some changes in information flow can yield transitions in cognitive performance.
- Abstract(参考訳): 進化の過渡的な説明は、進化可能なものを形成するいくつかの変化を強調し、派生した系統に劇的な結果をもたらす。
最近では、認知は生物学的ニューラルネットワークの構造を制御し、情報の流れを根本的に変える一連の大きな遷移によっても進化したのではないかと提案されている。
我々は、ネットワーク内の情報フローの変化が認知性能の遷移変化をもたらすかどうかを評価するために、情報フロー、人工知能ニューラルネットワーク(ANN)の理想モデルを使用した。
ネットワークをフィードフォワード、リカレントおよびラミネートトトポロジと比較し、ネットワークサイズとリソースを制御し、複雑さが異なる人工文法を学習した。
我々は,フィードフォワードネットワークと比較して再帰的ネットワークが処理できる入力の種類を定性的に拡張し,最も複雑な文法を学習するための関連する定性的な性能向上を文書化した。
また、リカレントネットワークのトレーニングの難しさが、進化的移行の他の重要な特徴である、移行障壁と連続的不可逆性の形式にどのように影響するかについても言及した。
ネットワークトポロジのすべての変更がこのタスクセットでパフォーマンス上の優位性を示すわけではない。
ラミネートネットワークは文法学習において非ラミネートネットワークを上回っなかった。
以上の結果から,情報フローの変化によって認知能力が変化することが示唆された。
関連論文リスト
- Generalization emerges from local optimization in a self-organized learning network [0.0]
我々は,グローバルなエラー関数に頼ることなく,局所最適化ルールのみによって駆動される,教師付き学習ネットワーク構築のための新しいパラダイムを設計・分析する。
我々のネットワークは、ルックアップテーブルの形で、ノードに新しい知識を正確かつ瞬時に保存する。
本稿では,学習例数が十分に大きくなると,アルゴリズムによって生成されたネットワークが完全な一般化状態に体系的に到達する,分類タスクの多くの例を示す。
我々は状態変化のダイナミクスについて報告し、それが突然であり、従来の学習ネットワークですでに観察されている現象である1次相転移の特徴を持つことを示す。
論文 参考訳(メタデータ) (2024-10-03T15:32:08Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Multiobjective Evolutionary Pruning of Deep Neural Networks with
Transfer Learning for improving their Performance and Robustness [15.29595828816055]
本研究は,多目的進化解析アルゴリズムMO-EvoPruneDeepTLを提案する。
我々は、トランスファーラーニングを使用して、遺伝的アルゴリズムによって進化したスパース層に置き換えることで、ディープニューラルネットワークの最後の層を適応します。
実験の結果,提案手法は全ての目的に対して有望な結果が得られ,直接的な関係が示された。
論文 参考訳(メタデータ) (2023-02-20T19:33:38Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - WeightScale: Interpreting Weight Change in Neural Networks [0.0]
本稿では,ニューラルネットワークの相対重み変化を層ごとの相対重み変化の測定によって解釈する手法を提案する。
我々はこの手法を用いて、様々な最先端ネットワークにおける視覚タスクの文脈における学習を調査する。
論文 参考訳(メタデータ) (2021-07-07T21:18:38Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。