論文の概要: Explanatory models in neuroscience: Part 2 -- constraint-based
intelligibility
- arxiv url: http://arxiv.org/abs/2104.01489v2
- Date: Wed, 14 Apr 2021 16:59:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 10:57:02.906916
- Title: Explanatory models in neuroscience: Part 2 -- constraint-based
intelligibility
- Title(参考訳): 神経科学における説明モデル : その2-制約に基づく知性
- Authors: Rosa Cao and Daniel Yamins
- Abstract要約: 計算モデリングは神経科学においてますます重要な役割を担い、モデルがどのように説明するかという哲学的な疑問を浮き彫りにしている。
生物学的システムでは、これらの依存関係の多くは自然に「トップダウン」である
NNモデルの構築に使用される最適化手法が,これらの依存関係のいくつかの重要な側面をいかに捉えているかを示す。
- 参考スコア(独自算出の注目度): 8.477619837043214
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Computational modeling plays an increasingly important role in neuroscience,
highlighting the philosophical question of how computational models explain. In
the context of neural network models for neuroscience, concerns have been
raised about model intelligibility, and how they relate (if at all) to what is
found in the brain. We claim that what makes a system intelligible is an
understanding of the dependencies between its behavior and the factors that are
causally responsible for that behavior. In biological systems, many of these
dependencies are naturally "top-down": ethological imperatives interact with
evolutionary and developmental constraints under natural selection. We describe
how the optimization techniques used to construct NN models capture some key
aspects of these dependencies, and thus help explain why brain systems are as
they are -- because when a challenging ecologically-relevant goal is shared by
a NN and the brain, it places tight constraints on the possible mechanisms
exhibited in both kinds of systems. By combining two familiar modes of
explanation -- one based on bottom-up mechanism (whose relation to neural
network models we address in a companion paper) and the other on top-down
constraints, these models illuminate brain function.
- Abstract(参考訳): 計算モデリングは神経科学においてますます重要な役割を担い、計算モデルがどのように説明するかという哲学的な疑問を強調している。
神経科学のためのニューラル・ネットワーク・モデルという文脈では、モデルの知性や、脳内に存在するものと(もしあれば)どう関係しているのかという懸念が提起されている。
システムを理解可能にするのは、その振る舞いと、その振る舞いに因果的に責任を持つ要因の間の依存関係を理解することだと主張する。
生物学的システムでは、これらの依存関係の多くは自然に「トップダウン(top-down)」である。
我々は、nnモデルを構築するために使用される最適化手法が、これらの依存関係のいくつかの重要な側面を捉えていることを記述し、そのため、脳システムがなぜそうであるのかを説明するのに役立ちます。
ボトムアップのメカニズム(我々が共著で取り上げているニューラルネットワークモデルとの関係)とトップダウン制約の2つの見慣れた説明モードを組み合わせることで、これらのモデルは脳の機能を照らします。
関連論文リスト
- Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Spatiotemporal Patterns in Neurobiology: An Overview for Future
Artificial Intelligence [0.0]
我々は,ネットワーク相互作用から生じる機能を明らかにする上で,計算モデルが重要なツールであると主張している。
ここでは、スパイキングニューロン、統合ニューロン、発火ニューロンを含むいくつかのモデルのクラスについてレビューする。
これらの研究は、人工知能アルゴリズムの今後の発展と、脳のプロセスの理解の検証に役立つことを願っている。
論文 参考訳(メタデータ) (2022-03-29T10:28:01Z) - From internal models toward metacognitive AI [0.0]
前頭前皮質では、「認知現実監視ネットワーク」と呼ばれる分散型エグゼクティブネットワークが、生成的逆モデルペアの意識的な関与を編成する。
高い責任信号は、外界を最も捉えているペアに与えられる。
意識はすべての対における責任信号のエントロピーによって決定される。
論文 参考訳(メタデータ) (2021-09-27T05:00:56Z) - Improving Coherence and Consistency in Neural Sequence Models with
Dual-System, Neuro-Symbolic Reasoning [49.6928533575956]
我々は、神経系1と論理系2の間を仲介するために神経推論を用いる。
強靭なストーリー生成とグラウンドド・インストラクション・フォローリングの結果、このアプローチは神経系世代におけるコヒーレンスと精度を高めることができることを示した。
論文 参考訳(メタデータ) (2021-07-06T17:59:49Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Explanatory models in neuroscience: Part 1 -- taking mechanistic
abstraction seriously [8.477619837043214]
批判者は、ニューラルネットワークモデルが脳の機能を照らすことができないことを心配している。
ある種のニューラルネットワークモデルは、実際には力学モデルのよい例である、と我々は主張する。
論文 参考訳(メタデータ) (2021-04-03T22:17:40Z) - A Neural Dynamic Model based on Activation Diffusion and a
Micro-Explanation for Cognitive Operations [4.416484585765028]
記憶の神経機構は、人工知能における表現の問題と非常に密接な関係を持っている。
脳内のニューロンのネットワークとその情報処理のシミュレーションを行う計算モデルが提案された。
論文 参考訳(メタデータ) (2020-11-27T01:34:08Z) - The distribution of inhibitory neurons in the C. elegans connectome
facilitates self-optimization of coordinated neural activity [78.15296214629433]
線虫Caenorhabditis elegansの神経系は、昆虫のサイズが小さいにもかかわらず著しく複雑である。
一般的な課題は、システムレベルでの神経組織と神経活動の関係をよりよく理解することである。
我々は,各ニューロンの神経伝達物質同定を近似した,C. elegans Connectomeの抽象シミュレーションモデルを実装した。
論文 参考訳(メタデータ) (2020-10-28T23:11:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。