論文の概要: Bootstrapping Concept Formation in Small Neural Networks
- arxiv url: http://arxiv.org/abs/2110.13665v1
- Date: Tue, 26 Oct 2021 12:58:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 21:30:27.136887
- Title: Bootstrapping Concept Formation in Small Neural Networks
- Title(参考訳): 小型ニューラルネットワークにおけるブートストラップの概念形成
- Authors: Minija Tamosiunaite, Tomas Kulvicius, and Florentin W\"org\"otter
- Abstract要約: まず、概念は閉じた表現として形成され、それらを相互に関連付けることによって統合される、と我々は主張する。
本稿では,現実的な学習ルールを用いて,エージェントが仮想行動を行う環境からのフィードバックのみを受信する,小さなニューラルネットワークを備えたモデルシステム(エージェント)を提案する。
- 参考スコア(独自算出の注目度): 2.580765958706854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The question how neural systems (of humans) can perform reasoning is still
far from being solved. We posit that the process of forming Concepts is a
fundamental step required for this. We argue that, first, Concepts are formed
as closed representations, which are then consolidated by relating them to each
other. Here we present a model system (agent) with a small neural network that
uses realistic learning rules and receives only feedback from the environment
in which the agent performs virtual actions. First, the actions of the agent
are reflexive. In the process of learning, statistical regularities in the
input lead to the formation of neuronal pools representing relations between
the entities observed by the agent from its artificial world. This information
then influences the behavior of the agent via feedback connections replacing
the initial reflex by an action driven by these relational representations. We
hypothesize that the neuronal pools representing relational information can be
considered as primordial Concepts, which may in a similar way be present in
some pre-linguistic animals, too. We argue that systems such as this can help
formalizing the discussion about what constitutes Concepts and serve as a
starting point for constructing artificial cogitating systems.
- Abstract(参考訳): 人間の)神経系がどのように推論を行うのかという問題は、まだ解決されていない。
我々は、概念形成のプロセスがそれに必要な基本的なステップであると仮定する。
まず、概念は閉じた表現として形成され、それらを相互に関連付けることで統合される。
本稿では,現実的な学習ルールを用いて,エージェントが仮想動作を行う環境からのみフィードバックを受ける,小さなニューラルネットワークを用いたモデルシステム(エージェント)を提案する。
第一に、エージェントの作用は反射的である。
学習の過程において、入力の統計的規則性は、エージェントが人工世界から観察した実体間の関係を表すニューロンプールの形成に繋がる。
この情報は、これらの関係表現によって駆動されるアクションによって初期反射を置き換えるフィードバック接続を介してエージェントの挙動に影響を与える。
我々は、関係情報を表すニューロンプールは原始的な概念と見なすことができると仮定する。
このようなシステムは、概念を構成するものに関する議論の形式化に役立ち、人工的な協調システム構築の出発点となる。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - From Neural Activations to Concepts: A Survey on Explaining Concepts in Neural Networks [15.837316393474403]
概念は学習と推論の自然な結びつきとして機能する。
知識はニューラルネットワークから抽出できるだけでなく、概念知識をニューラルネットワークアーキテクチャに挿入することもできる。
論文 参考訳(メタデータ) (2023-10-18T11:08:02Z) - Interpretability is in the Mind of the Beholder: A Causal Framework for
Human-interpretable Representation Learning [22.201878275784246]
説明可能なAIは、入力機能などの低レベル要素の観点から定義された説明から、データから学んだ解釈可能な概念でエンコードされた説明へとシフトしている。
しかし、そのような概念を確実に取得する方法は、基本的には不明確である。
ポストホックな説明器と概念に基づくニューラルネットワークの両方に適した解釈可能な表現を得るための数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-14T14:26:20Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Condition Integration Memory Network: An Interpretation of the Meaning
of the Neuronal Design [10.421465303670638]
本論文では,プリミティブニューラルネットワークの機能的性質に関する仮説的枠組みを紹介する。
ニューロンとシナプスの活動が、世界の動的変化を象徴的に再現できるという考えを分析します。
アルゴリズム構造に参加せずにこれを実現する。
論文 参考訳(メタデータ) (2021-05-21T05:59:27Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Explanatory models in neuroscience: Part 1 -- taking mechanistic
abstraction seriously [8.477619837043214]
批判者は、ニューラルネットワークモデルが脳の機能を照らすことができないことを心配している。
ある種のニューラルネットワークモデルは、実際には力学モデルのよい例である、と我々は主張する。
論文 参考訳(メタデータ) (2021-04-03T22:17:40Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - A Concept-Value Network as a Brain Model [0.0]
本稿では,脳様モデルの物理的実体と概念的実体の関係を記述するための統計的枠組みを提案する。
この論文は、化学接続も可能であるが、電気配線が特徴である可能性を示唆している。
論文 参考訳(メタデータ) (2019-04-09T10:30:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。