論文の概要: Brain in the Dark: Design Principles for Neuro-mimetic Learning and
Inference
- arxiv url: http://arxiv.org/abs/2307.08613v1
- Date: Fri, 14 Jul 2023 15:04:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 12:17:19.388906
- Title: Brain in the Dark: Design Principles for Neuro-mimetic Learning and
Inference
- Title(参考訳): 暗黒の脳:神経模倣学習と推論のための設計原理
- Authors: Mehran H. Bazargani, Szymon Urbas, Karl Friston
- Abstract要約: この推論をモデル化するためのアプローチは、脳が世界の生成モデルを持っていると仮定し、感覚刺激の背後にある隠れた原因、すなわち知覚を推論する。
この仮定は、どのように脳にインスパイアされた生成モデルを設計する問題を定式化するか、推論と学習のタスクに対してそれらを逆転させるか、最適化すべき適切な損失関数は何か、といった重要な疑問を提起する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Even though the brain operates in pure darkness, within the skull, it can
infer the most likely causes of its sensory input. An approach to modelling
this inference is to assume that the brain has a generative model of the world,
which it can invert to infer the hidden causes behind its sensory stimuli, that
is, perception. This assumption raises key questions: how to formulate the
problem of designing brain-inspired generative models, how to invert them for
the tasks of inference and learning, what is the appropriate loss function to
be optimised, and, most importantly, what are the different choices of mean
field approximation (MFA) and their implications for variational inference
(VI).
- Abstract(参考訳): 脳は頭蓋骨の中で純粋な闇の中で機能するが、その感覚入力の最も可能性の高い原因を推測することができる。
この推論をモデル化するアプローチは、脳が世界の生成モデルを持っていると仮定し、その感覚刺激、すなわち知覚の背後にある隠れた原因を推論することができる。
この仮定は、どのように脳にインスパイアされた生成モデルの設計の問題を定式化するか、推論と学習のタスクに対してそれらを逆転させるか、最適化すべき適切な損失関数は何か、そして最も重要なことは、平均場近似(MFA)の異なる選択と、それらが変分推論(VI)に与える影響である。
関連論文リスト
- MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Brain-grounding of semantic vectors improves neural decoding of visual stimuli [0.3495246564946556]
本稿では,意味ベクトルの脳基底と呼ばれる表現学習フレームワークを提案する。
我々は,150種類の視覚刺激カテゴリーのfMRIを用いて,このモデルを訓練した。
脳基底ベクトルを用いることで、異なるモードの脳データにおける脳の復号と識別精度が増大することが観察された。
論文 参考訳(メタデータ) (2024-03-22T13:01:10Z) - How does the primate brain combine generative and discriminative
computations in vision? [4.691670689443386]
推論過程の2つの対照的な概念は、それぞれ生物学的ビジョンと機械ビジョンの研究に影響を与えている。
視覚は、しばしば感覚データのトップダウン予測を含むと考えられるプロセスにおいて、証拠の尋問を通じて生成モデルを逆転させることを示す。
本稿では,この用語を説明し,重要な実証的証拠を概説するとともに,霊長類視覚の謎のハイブリッドアルゴリズムを明らかにするための段階を超越し,設定する経験的研究プログラムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:07:58Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Brainformer: Modeling MRI Brain Functions to Machine Vision [14.302727071450883]
我々はまず,人間の知覚システムにおけるfMRIのパターンを機械学習の観点から解析するために,シンプルで効果的なBrainformerアプローチを提案する。
第2に,人間の脳活動を表すfMRIをマシンビジョンモデルに取り入れた新しいメカニズムを導入する。
論文 参考訳(メタデータ) (2023-11-30T22:39:23Z) - Deep Neural Networks and Brain Alignment: Brain Encoding and Decoding
(Survey) [3.007588299126936]
脳はどのように異なる情報のモードを表現するのか?ユーザが何を考えているのかを自動的に理解するシステムを設計できるだろうか?
神経科学のコミュニティは、概念語、物語、写真、映画の受動的読み書き・視聴に関連する、いくつかの大きな認知神経科学データセットに貢献してきた。
これらのデータセットを使用した復号および符号化モデルも過去20年間に提案されている。
論文 参考訳(メタデータ) (2023-07-17T06:54:36Z) - Explainable Brain Age Prediction using coVariance Neural Networks [94.81523881951397]
大脳皮質の厚み特徴を用いた脳年齢予測のための説明駆動・解剖学的解釈可能なフレームワークを提案する。
具体的には、私たちの脳年齢予測フレームワークは、アルツハイマー病(AD)の脳年齢ギャップの粗い指標を超えて拡張されます。
我々は2つの重要な観察を行う: VNNは、貢献する脳の領域を同定することによって、ADの脳年齢差を高めるために解剖学的解釈性を割り当てることができる。
論文 参考訳(メタデータ) (2023-05-27T22:28:25Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Explanatory models in neuroscience: Part 2 -- constraint-based
intelligibility [8.477619837043214]
計算モデリングは神経科学においてますます重要な役割を担い、モデルがどのように説明するかという哲学的な疑問を浮き彫りにしている。
生物学的システムでは、これらの依存関係の多くは自然に「トップダウン」である
NNモデルの構築に使用される最適化手法が,これらの依存関係のいくつかの重要な側面をいかに捉えているかを示す。
論文 参考訳(メタデータ) (2021-04-03T22:14:01Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。