論文の概要: Brain in the Dark: Design Principles for Neuro-mimetic Learning and
Inference
- arxiv url: http://arxiv.org/abs/2307.08613v1
- Date: Fri, 14 Jul 2023 15:04:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 12:17:19.388906
- Title: Brain in the Dark: Design Principles for Neuro-mimetic Learning and
Inference
- Title(参考訳): 暗黒の脳:神経模倣学習と推論のための設計原理
- Authors: Mehran H. Bazargani, Szymon Urbas, Karl Friston
- Abstract要約: この推論をモデル化するためのアプローチは、脳が世界の生成モデルを持っていると仮定し、感覚刺激の背後にある隠れた原因、すなわち知覚を推論する。
この仮定は、どのように脳にインスパイアされた生成モデルを設計する問題を定式化するか、推論と学習のタスクに対してそれらを逆転させるか、最適化すべき適切な損失関数は何か、といった重要な疑問を提起する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Even though the brain operates in pure darkness, within the skull, it can
infer the most likely causes of its sensory input. An approach to modelling
this inference is to assume that the brain has a generative model of the world,
which it can invert to infer the hidden causes behind its sensory stimuli, that
is, perception. This assumption raises key questions: how to formulate the
problem of designing brain-inspired generative models, how to invert them for
the tasks of inference and learning, what is the appropriate loss function to
be optimised, and, most importantly, what are the different choices of mean
field approximation (MFA) and their implications for variational inference
(VI).
- Abstract(参考訳): 脳は頭蓋骨の中で純粋な闇の中で機能するが、その感覚入力の最も可能性の高い原因を推測することができる。
この推論をモデル化するアプローチは、脳が世界の生成モデルを持っていると仮定し、その感覚刺激、すなわち知覚の背後にある隠れた原因を推論することができる。
この仮定は、どのように脳にインスパイアされた生成モデルの設計の問題を定式化するか、推論と学習のタスクに対してそれらを逆転させるか、最適化すべき適切な損失関数は何か、そして最も重要なことは、平均場近似(MFA)の異なる選択と、それらが変分推論(VI)に与える影響である。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Coin-Flipping In The Brain: Statistical Learning with Neuronal Assemblies [9.757971977909683]
脳の計算モデルNEMOにおける統計的学習の出現について検討する。
アセンブリ間の接続が統計を記録し、環境騒音を利用して確率的選択をすることができることを示す。
論文 参考訳(メタデータ) (2024-06-11T20:51:50Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - How does the primate brain combine generative and discriminative
computations in vision? [4.691670689443386]
推論過程の2つの対照的な概念は、それぞれ生物学的ビジョンと機械ビジョンの研究に影響を与えている。
視覚は、しばしば感覚データのトップダウン予測を含むと考えられるプロセスにおいて、証拠の尋問を通じて生成モデルを逆転させることを示す。
本稿では,この用語を説明し,重要な実証的証拠を概説するとともに,霊長類視覚の謎のハイブリッドアルゴリズムを明らかにするための段階を超越し,設定する経験的研究プログラムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:07:58Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - From internal models toward metacognitive AI [0.0]
前頭前皮質では、「認知現実監視ネットワーク」と呼ばれる分散型エグゼクティブネットワークが、生成的逆モデルペアの意識的な関与を編成する。
高い責任信号は、外界を最も捉えているペアに与えられる。
意識はすべての対における責任信号のエントロピーによって決定される。
論文 参考訳(メタデータ) (2021-09-27T05:00:56Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Explanatory models in neuroscience: Part 2 -- constraint-based
intelligibility [8.477619837043214]
計算モデリングは神経科学においてますます重要な役割を担い、モデルがどのように説明するかという哲学的な疑問を浮き彫りにしている。
生物学的システムでは、これらの依存関係の多くは自然に「トップダウン」である
NNモデルの構築に使用される最適化手法が,これらの依存関係のいくつかの重要な側面をいかに捉えているかを示す。
論文 参考訳(メタデータ) (2021-04-03T22:14:01Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。