論文の概要: Revealing higher-order neural representations with generative artificial intelligence
- arxiv url: http://arxiv.org/abs/2503.14333v1
- Date: Tue, 18 Mar 2025 15:08:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:16:56.908252
- Title: Revealing higher-order neural representations with generative artificial intelligence
- Title(参考訳): 生成人工知能による高次神経表現の探索
- Authors: Hojjat Azimi Asrari, Megan A. K. Peters,
- Abstract要約: 本稿では,新しい強化学習(RL)に基づく生成人工知能(genAI)アプローチを提案し,不確実性分布のニューラル表現を探索する。
既存の機能的磁気共鳴画像データを用いて、RLアルゴリズムを用いて拡散ジェネシスモデルを学習し、人間の学習と同様のノイズ分布を学習する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Studies often aim to reveal how neural representations encode aspects of an observer's environment, such as its contents or structure. These are ``first-order" representations (FORs), because they're ``about" the external world. A less-common target is ``higher-order" representations (HORs), which are ``about" FORs -- their contents, stability, or uncertainty. HORs of uncertainty appear critically involved in adaptive behaviors including learning under uncertainty, influencing learning rates and internal model updating based on environmental feedback. However, HORs about uncertainty are unlikely to be direct ``read-outs" of FOR characteristics, instead reflecting estimation processes which may be lossy, bias-prone, or distortive and which may also incorporate estimates of distributions of uncertainty the observer is likely to experience. While some research has targeted neural representations of ``instantaneously" estimated uncertainty, how the brain represents \textit{distributions} of expected uncertainty remains largely unexplored. Here, we propose a novel reinforcement learning (RL) based generative artificial intelligence (genAI) approach to explore neural representations of uncertainty distributions. We use existing functional magnetic resonance imaging data, where humans learned to `de-noise' their brain states to achieve target neural patterns, to train denoising diffusion genAI models with RL algorithms to learn noise distributions similar to how humans might learn to do the same. We then explore these models' learned noise-distribution HORs compared to control models trained with traditional backpropagation. Results reveal model-dependent differences in noise distribution representations -- with the RL-based model offering much higher explanatory power for human behavior -- offering an exciting path towards using genAI to explore neural noise-distribution HORs.
- Abstract(参考訳): 研究はしばしば、神経表現がその内容や構造などの観察者の環境の側面をエンコードする方法を明らかにすることを目的としている。
これらは ``first-order' 表現(FOR)である。
より一般的なターゲットは ``higher-order' representations (HORs) であり、その内容、安定性、不確実性である ``about" FORs である。
不確実性のHORは、不確実性下での学習、学習率への影響、環境フィードバックに基づく内部モデル更新など、適応的な行動に極めて関与しているように見える。
しかしながら、不確実性に関するHORは、FORT特性の直接の「読み取り」とは考えられず、損失、偏り、歪曲性があり、観測者が経験する可能性のある不確実性の分布の推定も含んでいる推定過程を反映している。いくつかの研究では、「即時」推定不確実性の神経表現を標的としているが、期待される不確実性の「textit{distributions"」をどのように表すかはほとんど解明されていない。
本稿では,新しい強化学習(RL)に基づく生成人工知能(genAI)アプローチを提案し,不確実性分布のニューラル表現を探索する。
既存の機能的磁気共鳴画像データを用いて、人間が脳の状態の「ノイズ」を学習し、ターゲットとなる神経パターンを達成し、RLアルゴリズムで拡散性genAIモデルを学習し、人間が同じことをする方法と同様のノイズ分布を学習する。
次に、従来のバックプロパゲーションで訓練された制御モデルと比較して、学習したノイズ分布HORについて検討する。
RLベースのモデルは人間の行動に対する説明力を大幅に高め、GenAIを使ってニューラルノイズ分散HORを探索するエキサイティングな道を提供する。
関連論文リスト
- Explainability through uncertainty: Trustworthy decision-making with neural networks [1.104960878651584]
不確実性は、あらゆる機械学習モデルの主要な特徴である。
ニューラルネットワークでは特に重要であり、過信されがちである。
XAIとしての不確実性は、下流の意思決定タスクにおけるモデルの信頼性を改善する。
論文 参考訳(メタデータ) (2024-03-15T10:22:48Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Deep Learning Reproducibility and Explainable AI (XAI) [9.13755431537592]
ディープラーニング(DL)学習アルゴリズムの非決定性とそのニューラルネットワーク(NN)モデルの説明可能性への影響について検討した。
この問題について議論するため、2つの畳み込みニューラルネットワーク(CNN)をトレーニングし、その結果を比較した。
論文 参考訳(メタデータ) (2022-02-23T12:06:20Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Ramifications of Approximate Posterior Inference for Bayesian Deep
Learning in Adversarial and Out-of-Distribution Settings [7.476901945542385]
ベイジアン深層学習モデルが従来のニューラルネットワークよりわずかに優れていることを示す。
予備的な調査は、初期化、アーキテクチャ、アクティベーション関数の選択によるバイアスの潜在的固有の役割を示している。
論文 参考訳(メタデータ) (2020-09-03T16:58:15Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。