論文の概要: A neural network model of perception and reasoning
- arxiv url: http://arxiv.org/abs/2002.11319v1
- Date: Wed, 26 Feb 2020 06:26:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 13:57:43.775116
- Title: A neural network model of perception and reasoning
- Title(参考訳): 知覚と推論のニューラルネットワークモデル
- Authors: Paul J. Blazek, Milo M. Lin
- Abstract要約: 生物学的に一貫した構成原理の単純なセットが神経ネットワークにこれらの能力を与えることを示す。
我々はこれらの原理を、最適化の代わりに概念構築に基づく新しい機械学習アルゴリズムで実装し、説明可能なニューロン活動で推論されるディープニューラルネットワークを設計する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How perception and reasoning arise from neuronal network activity is poorly
understood. This is reflected in the fundamental limitations of connectionist
artificial intelligence, typified by deep neural networks trained via
gradient-based optimization. Despite success on many tasks, such networks
remain unexplainable black boxes incapable of symbolic reasoning and concept
generalization. Here we show that a simple set of biologically consistent
organizing principles confer these capabilities to neuronal networks. To
demonstrate, we implement these principles in a novel machine learning
algorithm, based on concept construction instead of optimization, to design
deep neural networks that reason with explainable neuron activity. On a range
of tasks including NP-hard problems, their reasoning capabilities grant
additional cognitive functions, like deliberating through self-analysis,
tolerating adversarial attacks, and learning transferable rules from simple
examples to solve problems of unencountered complexity. The networks also
naturally display properties of biological nervous systems inherently absent in
current deep neural networks, including sparsity, modularity, and both
distributed and localized firing patterns. Because they do not sacrifice
performance, compactness, or training time on standard learning tasks, these
networks provide a new black-box-free approach to artificial intelligence. They
likewise serve as a quantitative framework to understand the emergence of
cognition from neuronal networks.
- Abstract(参考訳): 神経ネットワーク活動からの知覚と推論は理解されていない。
これは、勾配に基づく最適化によって訓練されたディープニューラルネットワークに代表されるコネクショニスト人工知能の基本的な制限に反映されている。
多くのタスクで成功したにもかかわらず、そのようなネットワークは象徴的推論や概念一般化ができない説明不能なブラックボックスのままである。
ここでは、生物学的に一貫した組織原理の単純なセットが、神経ネットワークにこれらの能力を与えることを示す。
そこで我々は,これらの原理を,最適化ではなく概念構築に基づく新しい機械学習アルゴリズムに実装し,説明可能なニューロン活動で推論されるディープニューラルネットワークを設計する。
npハード問題を含む様々なタスクにおいて、それらの推論能力は、自己分析による熟考、敵の攻撃の緩和、単純な例から転送可能なルールの学習など、追加の認知機能を与える。
ネットワークには、現在のディープニューラルネットワークに固有の生物学的神経系の特性も自然に表示され、スパーシティ、モジュラリティ、分散および局所的な発火パターンなどが含まれる。
標準的な学習タスクのパフォーマンス、コンパクト性、トレーニング時間を犠牲にしないため、これらのネットワークは人工知能に対する新たなブラックボックスのないアプローチを提供する。
同様に、神経ネットワークからの認知の出現を理解するための定量的な枠組みとして機能する。
関連論文リスト
- Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - Decoding Interpretable Logic Rules from Neural Networks [8.571176778812038]
本稿では,ニューラルネットワークから解釈可能な論理規則を復号化するための新しいアプローチであるNeuroLogicを紹介する。
NeuroLogicは幅広いニューラルネットワークに適応することができる。
NeuroLogicはニューラルネットワークのブラックボックスの性質を理解するのに役立ちます。
論文 参考訳(メタデータ) (2025-01-14T17:57:26Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - From Neural Activations to Concepts: A Survey on Explaining Concepts in Neural Networks [15.837316393474403]
概念は学習と推論の自然な結びつきとして機能する。
知識はニューラルネットワークから抽出できるだけでなく、概念知識をニューラルネットワークアーキテクチャに挿入することもできる。
論文 参考訳(メタデータ) (2023-10-18T11:08:02Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Brain-inspired Graph Spiking Neural Networks for Commonsense Knowledge
Representation and Reasoning [11.048601659933249]
神経科学、認知科学、心理学、人工知能において、人間の脳におけるニューラルネットワークがどのように常識知識を表現するかは重要な研究トピックである。
本研究は, 個体群エンコーディングとスパイクタイミング依存的可塑性(STDP)機構をスパイクニューラルネットワークの学習に組み込む方法について検討する。
異なるコミュニティのニューロン集団は、コモンセンス知識グラフ全体を構成し、巨大なグラフがニューラルネットワークをスパイクする。
論文 参考訳(メタデータ) (2022-07-11T05:22:38Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Explainable artificial intelligence for mechanics: physics-informing
neural networks for constitutive models [0.0]
メカニクスにおいて、物理インフォームドニューラルネットワークの新しい活発な分野は、機械的知識に基づいてディープニューラルネットワークを設計することによって、この欠点を緩和しようとする。
本論文では,機械データに訓練されたニューラルネットワークを後述する物理形成型アプローチへの第一歩を提案する。
これにより、主成分分析はRNNの細胞状態における分散表現をデコレーションし、既知の基本関数との比較を可能にする。
論文 参考訳(メタデータ) (2021-04-20T18:38:52Z) - Controlling Recurrent Neural Networks by Conceptors [0.5439020425818999]
本稿では, 非線形力学と概念抽象と論理の基本原理を結合した, 概念論という, 神経力学の機構を提案する。
単一のニューラルネットワーク内の多数の動的パターンを学習、保存、抽象化、フォーカス、モーフィック、一般化、デノイズ化、認識することが可能になります。
論文 参考訳(メタデータ) (2014-03-13T18:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。