論文の概要: Explanatory models in neuroscience: Part 1 -- taking mechanistic
abstraction seriously
- arxiv url: http://arxiv.org/abs/2104.01490v2
- Date: Sat, 10 Apr 2021 23:39:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 10:57:37.161490
- Title: Explanatory models in neuroscience: Part 1 -- taking mechanistic
abstraction seriously
- Title(参考訳): 神経科学における説明モデル : その1 機械的抽象化を真剣に考える
- Authors: Rosa Cao and Daniel Yamins
- Abstract要約: 批判者は、ニューラルネットワークモデルが脳の機能を照らすことができないことを心配している。
ある種のニューラルネットワークモデルは、実際には力学モデルのよい例である、と我々は主張する。
- 参考スコア(独自算出の注目度): 8.477619837043214
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite the recent success of neural network models in mimicking animal
performance on visual perceptual tasks, critics worry that these models fail to
illuminate brain function. We take it that a central approach to explanation in
systems neuroscience is that of mechanistic modeling, where understanding the
system is taken to require fleshing out the parts, organization, and activities
of a system, and how those give rise to behaviors of interest. However, it
remains somewhat controversial what it means for a model to describe a
mechanism, and whether neural network models qualify as explanatory.
We argue that certain kinds of neural network models are actually good
examples of mechanistic models, when the right notion of mechanistic mapping is
deployed. Building on existing work on model-to-mechanism mapping (3M), we
describe criteria delineating such a notion, which we call 3M++. These criteria
require us, first, to identify a level of description that is both abstract but
detailed enough to be "runnable", and then, to construct model-to-brain
mappings using the same principles as those employed for brain-to-brain mapping
across individuals. Perhaps surprisingly, the abstractions required are those
already in use in experimental neuroscience, and are of the kind deployed in
the construction of more familiar computational models, just as the principles
of inter-brain mappings are very much in the spirit of those already employed
in the collection and analysis of data across animals.
In a companion paper, we address the relationship between optimization and
intelligibility, in the context of functional evolutionary explanations. Taken
together, mechanistic interpretations of computational models and the
dependencies between form and function illuminated by optimization processes
can help us to understand why brain systems are built they way they are.
- Abstract(参考訳): 視覚の知覚タスクで動物のパフォーマンスを模倣するニューラルネットワークモデルが最近成功しているにもかかわらず、批評家はこれらのモデルが脳の機能を照らさないことを懸念している。
神経科学におけるシステム説明の中心的なアプローチは、システムの部分、組織、活動、そしてそれらがどのようにして関心のある行動を引き起こすかを理解するためにシステムを理解するための機械的なモデリングである。
しかしながら、モデルがメカニズムを記述することの意味や、ニューラルネットワークモデルが説明可能なかどうかについては、いまだに議論の余地がある。
我々は、特定の種類のニューラルネットワークモデルは、機械的マッピングの正しい概念が展開されたときに実際に機械的モデルの良い例であると主張する。
モデル・ツー・メカニズムマッピング(3M)に関する既存の研究に基づいて、3M++と呼ばれる概念を記述した基準を記述する。
これらの基準は、まず「実行可能」に十分な抽象的かつ詳細な説明のレベルを特定し、続いて、個人間で脳から脳へのマッピングに使用されるものと同じ原則を用いてモデルから脳へのマッピングを構築する必要があります。
おそらく驚くことに、必要となる抽象化は実験神経科学ですでに使われているものであって、脳間マッピングの原則が動物間のデータの収集と分析に既に採用されている人々の精神によく似ているように、より親しみやすい計算モデルの構築に配備されているものだ。
本稿では,機能的進化的説明の文脈において,最適化と知性の関係について考察する。
計算モデルの機械論的解釈と、最適化プロセスによって照らされた形式と機能の間の依存関係は、なぜ脳システムを構築しているのかを理解するのに役立ちます。
関連論文リスト
- Don't Cut Corners: Exact Conditions for Modularity in Biologically Inspired Representations [52.48094670415497]
我々は、生物にインスパイアされた表現が、ソース変数(ソース)に関してモジュール化されるときの理論を開発する。
我々は、最適な生物学的にインスパイアされたリニアオートエンコーダのニューロンがモジュラー化されるかどうかを判断する情報源のサンプルに対して、必要かつ十分な条件を導出する。
我々の理論はどんなデータセットにも当てはまり、以前の研究で研究された統計的な独立性よりもはるかに長い。
論文 参考訳(メタデータ) (2024-10-08T17:41:37Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Generative Models as a Complex Systems Science: How can we make sense of
large language model behavior? [75.79305790453654]
事前訓練されたモデルから望ましい振る舞いを排除し、望ましくないモデルを避けながら、NLPを再定義した。
言語モデルの振る舞いをタスク間性能を説明するカテゴリに分解する体系的な取り組みについて論じる。
論文 参考訳(メタデータ) (2023-07-31T22:58:41Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Meta-brain Models: biologically-inspired cognitive agents [0.0]
メタ脳モデルと呼ぶ計算手法を提案する。
特殊なモデルを用いて構成したレイヤの組み合わせを提案する。
我々は、この柔軟でオープンソースなアプローチの開発における次のステップを提案して、結論付けます。
論文 参考訳(メタデータ) (2021-08-31T05:20:53Z) - Deep Reinforcement Learning Models Predict Visual Responses in the
Brain: A Preliminary Result [1.0323063834827415]
強化学習を用いてニューラルネットワークモデルをトレーニングし、3Dコンピュータゲームをプレイします。
これらの強化学習モデルは、初期視覚領域において、神経応答予測精度のスコアを得る。
対照的に、教師付きニューラルネットワークモデルでは、より高い視覚領域において、より優れた神経応答予測が得られる。
論文 参考訳(メタデータ) (2021-06-18T13:10:06Z) - Information theoretic analysis of computational models as a tool to
understand the neural basis of behaviors [0.0]
今世紀最大の研究課題の1つは、脳の身体環境システムにおける行動の神経基盤を理解することである。
計算モデルは、モデルシステムを研究することができる別のフレームワークを提供する。
本稿では,計算モデルの情報理論解析が強力な研究手法であることを示すための紹介,レビュー,議論を行う。
論文 参考訳(メタデータ) (2021-06-02T02:08:18Z) - Explanatory models in neuroscience: Part 2 -- constraint-based
intelligibility [8.477619837043214]
計算モデリングは神経科学においてますます重要な役割を担い、モデルがどのように説明するかという哲学的な疑問を浮き彫りにしている。
生物学的システムでは、これらの依存関係の多くは自然に「トップダウン」である
NNモデルの構築に使用される最適化手法が,これらの依存関係のいくつかの重要な側面をいかに捉えているかを示す。
論文 参考訳(メタデータ) (2021-04-03T22:14:01Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - A Neural Dynamic Model based on Activation Diffusion and a
Micro-Explanation for Cognitive Operations [4.416484585765028]
記憶の神経機構は、人工知能における表現の問題と非常に密接な関係を持っている。
脳内のニューロンのネットワークとその情報処理のシミュレーションを行う計算モデルが提案された。
論文 参考訳(メタデータ) (2020-11-27T01:34:08Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。