論文の概要: Brain2Model Transfer: Training sensory and decision models with human neural activity as a teacher
- arxiv url: http://arxiv.org/abs/2506.20834v1
- Date: Wed, 25 Jun 2025 21:03:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.890281
- Title: Brain2Model Transfer: Training sensory and decision models with human neural activity as a teacher
- Title(参考訳): Brain2Model Transfer: 教師としての人間の神経活動を用いた感覚訓練と意思決定モデル
- Authors: Tomas Gallo Aquino, Victoria Liu, Habiba Azab, Raissa Mathura, Andrew J Watrous, Eleonora Bartoli, Benjamin Y Hayden, Paul Sajda, Sameer A Sheth, Nuttida Rungratsameetaweemana,
- Abstract要約: トランスファーラーニングは、大規模で事前訓練された教師モデルからリッチな特徴表現を採用することで、新しい感覚モデルと決定モデルのトレーニングを強化する。
脳2モデル伝達学習(Brain2Model Transfer Learning, B2M)は、人間の感覚や意思決定タスクからの神経活動が、ニューラルネットワークを訓練する教師モデルとして機能するフレームワークである。
- 参考スコア(独自算出の注目度): 2.0933969126135774
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Transfer learning enhances the training of novel sensory and decision models by employing rich feature representations from large, pre-trained teacher models. Cognitive neuroscience shows that the human brain creates low-dimensional, abstract representations for efficient sensorimotor coding. Importantly, the brain can learn these representations with significantly fewer data points and less computational power than artificial models require. We introduce Brain2Model Transfer Learning (B2M), a framework where neural activity from human sensory and decision-making tasks acts as the teacher model for training artificial neural networks. We propose two B2M strategies: (1) Brain Contrastive Transfer, which aligns brain activity and network activations through a contrastive objective; and (2) Brain Latent Transfer, which projects latent dynamics from similar cognitive tasks onto student networks via supervised regression of brain-derived features. We validate B2M in memory-based decision-making with a recurrent neural network and scene reconstruction for autonomous driving with a variational autoencoder. The results show that student networks benefiting from brain-based transfer converge faster and achieve higher predictive accuracy than networks trained in isolation. Our findings indicate that the brain's representations are valuable for artificial learners, paving the way for more efficient learning of complex decision-making representations, which would be costly or slow through purely artificial training.
- Abstract(参考訳): トランスファーラーニングは、大規模で事前訓練された教師モデルからリッチな特徴表現を採用することで、新しい感覚モデルと決定モデルのトレーニングを強化する。
認知神経科学は、人間の脳が効率的な感覚運動の符号化のために低次元の抽象的な表現を作り出すことを示している。
重要なことは、脳はこれらの表現を、人工モデルが必要とするよりもはるかに少ないデータポイントと少ない計算能力で学習することができることである。
脳2モデル伝達学習(Brain2Model Transfer Learning, B2M)は、人間の感覚や意思決定タスクからの神経活動が、ニューラルネットワークを訓練する教師モデルとして機能するフレームワークである。
我々は,(1)脳活動とネットワーク活性化を対照的な目的を通じて整列する脳コントラスト伝達,(2)認知課題から学生ネットワークへの潜伏ダイナミクスを脳由来の特徴の監督的回帰を通じて投影する脳潜伏移動という2つのB2M戦略を提案する。
我々は,B2Mをリカレントニューラルネットワークを用いてメモリベースの意思決定において検証し,変分オートエンコーダを用いた自律運転のためのシーン再構成を行った。
その結果,脳波伝達の恩恵を受ける学生ネットワークは,単独で訓練したネットワークよりも早く収束し,予測精度が高いことがわかった。
以上の結果から,脳の表現は人工学習者にとって有用であることが示唆され,より効率的な意思決定表現の学習方法が確立された。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - In the realm of hybrid Brain: Human Brain and AI [0.0]
現在の脳-コンピュータインターフェース(BCI)技術は主に治療結果に関するものである。
近年,脳信号のデコードには人工知能(AI)と機械学習(ML)技術が用いられている。
クローズドループ,インテリジェント,低消費電力,小型化されたニューラルインターフェースの開発を想定する。
論文 参考訳(メタデータ) (2022-10-04T08:35:34Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - The curious case of developmental BERTology: On sparsity, transfer
learning, generalization and the brain [7.33811357166334]
このエッセイでは,大規模言語モデルのレンズを通して,深層学習と神経科学の交点を探究する。
知覚神経生理学や認知神経生理学が効果的なディープニューラルネットワークアーキテクチャにインスピレーションを与えたのと同じように、ここでは生物学的神経開発がいかに効率的で堅牢な最適化手順を刺激するかを考察する。
論文 参考訳(メタデータ) (2020-07-07T20:16:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。