論文の概要: A Theory of Natural Intelligence
- arxiv url: http://arxiv.org/abs/2205.00002v1
- Date: Fri, 22 Apr 2022 10:27:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 02:06:35.822033
- Title: A Theory of Natural Intelligence
- Title(参考訳): 自然知性の理論
- Authors: Christoph von der Malsburg, Thilo Stadelmann, Benjamin F. Grewe
- Abstract要約: 現在のAI技術とは対照的に、自然知性は学習速度、一般化能力、自律性、創造性においてはるかに優れている。
これらの強みは、どのようにして、ニューラルネットワークで生み出されるアイデアと想像力を意味するのだろうか?
- 参考スコア(独自算出の注目度): 3.9901365062418312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Introduction: In contrast to current AI technology, natural intelligence --
the kind of autonomous intelligence that is realized in the brains of animals
and humans to attain in their natural environment goals defined by a repertoire
of innate behavioral schemata -- is far superior in terms of learning speed,
generalization capabilities, autonomy and creativity. How are these strengths,
by what means are ideas and imagination produced in natural neural networks?
Methods: Reviewing the literature, we put forward the argument that both our
natural environment and the brain are of low complexity, that is, require for
their generation very little information and are consequently both highly
structured. We further argue that the structures of brain and natural
environment are closely related.
Results: We propose that the structural regularity of the brain takes the
form of net fragments (self-organized network patterns) and that these serve as
the powerful inductive bias that enables the brain to learn quickly, generalize
from few examples and bridge the gap between abstractly defined general goals
and concrete situations.
Conclusions: Our results have important bearings on open problems in
artificial neural network research.
- Abstract(参考訳): 導入:現在のAI技術とは対照的に、動物や人間の脳で実現され、自然環境の目標を達成するための自然知能は、学習速度、一般化能力、自律性、創造性においてはるかに優れている。
これらの強みは、どのようにして、ニューラルネットワークで生み出されるアイデアと想像力を意味するのだろうか?
方法:文献をレビューし、私たちの自然環境と脳は共に複雑さが低い、つまり、その生成に必要となる情報が少なく、その結果、どちらも高度に構造化されている、という議論を提起した。
さらに、脳と自然環境の構造は密接に関連していると主張する。
結果: 脳の構造的規則性は網状断片(自己組織的ネットワークパターン)の形をとり,これらは脳が迅速に学習し,少数の例から一般化し,抽象的に定義された汎用目標と具体的状況のギャップを埋める強力な帰納的バイアスとなることが示唆された。
結論: この結果は, ニューラルネットワーク研究におけるオープンな問題に重要な影響を与えている。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Psychology of Artificial Intelligence: Epistemological Markers of the Cognitive Analysis of Neural Networks [0.0]
アシモフが1950年に予言した人工知能の心理学は、このAIの探索と説明可能性に敏感な物質の研究を目的としている。
後者を調べるための前提条件は、その現象学に起因する認知状態に関するいくつかのマイルストーンを明らかにすることである。
論文 参考訳(メタデータ) (2024-07-04T12:53:05Z) - A Review of Findings from Neuroscience and Cognitive Psychology as
Possible Inspiration for the Path to Artificial General Intelligence [0.0]
本論は,神経科学と認知心理学の手法を検討することによって,人工知能の探求に貢献することを目的とする。
深層学習モデルによって達成された印象的な進歩にもかかわらず、抽象的推論と因果的理解にはまだ欠点がある。
論文 参考訳(メタデータ) (2024-01-03T09:46:36Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Towards the Neuroevolution of Low-level Artificial General Intelligence [5.2611228017034435]
我々は、AI(Artificial General Intelligence, AGI)の検索は、人間レベルの知能よりもはるかに低いレベルから始まるべきだと論じる。
我々の仮説は、エージェントが環境の中で行動するとき、学習は感覚フィードバックによって起こるというものである。
環境反応から学習する生物学的にインスパイアされた人工ニューラルネットワークを進化させる手法を評価する。
論文 参考訳(メタデータ) (2022-07-27T15:30:50Z) - Brain-inspired Graph Spiking Neural Networks for Commonsense Knowledge
Representation and Reasoning [11.048601659933249]
神経科学、認知科学、心理学、人工知能において、人間の脳におけるニューラルネットワークがどのように常識知識を表現するかは重要な研究トピックである。
本研究は, 個体群エンコーディングとスパイクタイミング依存的可塑性(STDP)機構をスパイクニューラルネットワークの学習に組み込む方法について検討する。
異なるコミュニティのニューロン集団は、コモンセンス知識グラフ全体を構成し、巨大なグラフがニューラルネットワークをスパイクする。
論文 参考訳(メタデータ) (2022-07-11T05:22:38Z) - An Introductory Review of Spiking Neural Network and Artificial Neural
Network: From Biological Intelligence to Artificial Intelligence [4.697611383288171]
生物学的解釈可能性を持つスパイクニューラルネットワークは、徐々に注目を集めている。
このレビューは、さまざまな研究者を惹きつけ、脳にインスパイアされた知性と人工知能の開発を進めたいと考えている。
論文 参考訳(メタデータ) (2022-04-09T09:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。