論文の概要: Building artificial neural circuits for domain-general cognition: a
primer on brain-inspired systems-level architecture
- arxiv url: http://arxiv.org/abs/2303.13651v1
- Date: Tue, 21 Mar 2023 18:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 16:29:07.171966
- Title: Building artificial neural circuits for domain-general cognition: a
primer on brain-inspired systems-level architecture
- Title(参考訳): ドメイン一般認知のための人工神経回路の構築--脳にインスパイアされたシステムレベルアーキテクチャの基礎-
- Authors: Jascha Achterberg, Danyal Akarca, Moataz Assem, Moritz Heimbach,
Duncan E. Astle, John Duncan
- Abstract要約: 本稿では,生体神経ネットワークにフレキシブル認知に必要な機能を持たせることの意義について概説する。
機械学習モデルがより複雑になるにつれて、これらの原則は、可能なアーキテクチャの広大な領域において、価値ある方向を提供するかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a concerted effort to build domain-general artificial intelligence
in the form of universal neural network models with sufficient computational
flexibility to solve a wide variety of cognitive tasks but without requiring
fine-tuning on individual problem spaces and domains. To do this, models need
appropriate priors and inductive biases, such that trained models can
generalise to out-of-distribution examples and new problem sets. Here we
provide an overview of the hallmarks endowing biological neural networks with
the functionality needed for flexible cognition, in order to establish which
features might also be important to achieve similar functionality in artificial
systems. We specifically discuss the role of system-level distribution of
network communication and recurrence, in addition to the role of short-term
topological changes for efficient local computation. As machine learning models
become more complex, these principles may provide valuable directions in an
otherwise vast space of possible architectures. In addition, testing these
inductive biases within artificial systems may help us to understand the
biological principles underlying domain-general cognition.
- Abstract(参考訳): さまざまな認知タスクを解決するのに十分な計算柔軟性を備えた、普遍的なニューラルネットワークモデルという形で、ドメイン汎用人工知能を構築するための協力的な取り組みがあるが、個々の問題空間やドメインを微調整する必要はない。
これを実現するために、モデルは適切な事前と帰納バイアスを必要とし、訓練されたモデルは配布外例や新しい問題集合に一般化することができる。
ここでは, 生体神経ネットワークにフレキシブル認知に必要な機能を持たせることで, 人工システムにおいて同様の機能を実現する上で, どのような機能が重要であるかを明らかにする。
本稿では,ネットワーク通信と再帰のシステムレベル分布の役割と,効率的な局所計算のための短期的トポロジカル変化の役割について論じる。
機械学習モデルがより複雑になるにつれて、これらの原則は、可能なアーキテクチャの広大な領域で価値ある方向を提供するかもしれない。
さらに、これらの誘導バイアスを人工システム内でテストすることは、ドメイン・ジェネラル認知の基礎となる生物学的原理を理解するのに役立ちます。
関連論文リスト
- Spatial embedding promotes a specific form of modularity with low entropy and heterogeneous spectral dynamics [0.0]
空間的に埋め込まれたリカレントニューラルネットワークは、学習よりもネットワークの構造と機能を組み合わせた組織をどのように形成するかを研究するための有望な道を提供する。
我々は,これらの制約を,速度とスパイクニューラルネットワークの両面にわたって,ニューラルウェイトと固有スペクトルのエントロピー測定によって研究することが可能であることを示す。
この作業は、ニューラルネットワークにおける制約付き学習の理解を深め、コーディングスキームやタスクを越えて、同時に構造的および機能的目的に対するソリューションをタンデムで達成する必要がある。
論文 参考訳(メタデータ) (2024-09-26T10:00:05Z) - Reasoning Algorithmically in Graph Neural Networks [1.8130068086063336]
ニューラルネットワークの適応学習能力にアルゴリズムの構造的および規則に基づく推論を統合することを目的としている。
この論文は、この領域の研究に理論的および実践的な貢献を提供する。
論文 参考訳(メタデータ) (2024-02-21T12:16:51Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Gaussian Process Surrogate Models for Neural Networks [6.8304779077042515]
科学と工学において、モデリング(英: modeling)とは、内部プロセスが不透明な複雑なシステムを理解するために用いられる方法論である。
本稿では,ガウス過程を用いたニューラルネットワークの代理モデルのクラスを構築する。
提案手法は,ニューラルネットワークのスペクトルバイアスに関連する既存の現象を捕捉し,サロゲートモデルを用いて現実的な問題を解決することを実証する。
論文 参考訳(メタデータ) (2022-08-11T20:17:02Z) - An Artificial Neural Network Functionalized by Evolution [2.0625936401496237]
フィードフォワードニューラルネットワークのテンソル計算と擬似ダーウィン機構を組み合わせたハイブリッドモデルを提案する。
これにより、戦略の解明、制御問題、パターン認識タスクに適したトポロジを見つけることができる。
特に、このモデルは初期の進化段階に適応したトポロジを提供し、ロボット工学、ビッグデータ、人工生命に応用できる「構造収束」を提供することができる。
論文 参考訳(メタデータ) (2022-05-16T14:49:58Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Towards fuzzification of adaptation rules in self-adaptive architectures [2.730650695194413]
我々は、自己適応型アーキテクチャにおける分析と計画段階にニューラルネットワークを活用することに注力する。
このようなニーズに対処する簡単な選択肢のひとつは、論理ルールに基づいた推論をニューラルネットワークに置き換えることだ。
この連続体の中でナビゲートする方法を示し、元の論理ルールを自然に埋め込むニューラルネットワークアーキテクチャを作成します。
論文 参考訳(メタデータ) (2021-12-17T12:17:16Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Automated Search for Resource-Efficient Branched Multi-Task Networks [81.48051635183916]
我々は,多タスクニューラルネットワークにおける分岐構造を自動的に定義する,微分可能なニューラルネットワーク探索に根ざした原理的アプローチを提案する。
本手法は,限られた資源予算内で高い性能の分岐構造を見いだすことができる。
論文 参考訳(メタデータ) (2020-08-24T09:49:19Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。