論文の概要: Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects
- arxiv url: http://arxiv.org/abs/2110.06078v1
- Date: Tue, 12 Oct 2021 15:30:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 17:56:37.572101
- Title: Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects
- Title(参考訳): モデルに基づく脳活動分析による305名の言語階層の解明
- Authors: Charlotte Caucheteux, Alexandre Gramfort, Jean-R\'emi King
- Abstract要約: 言語の神経基盤を分解する一般的なアプローチは、個人間で異なる刺激に対する脳の反応を関連付けている。
そこで本研究では,自然刺激に曝露された被験者に対して,モデルに基づくアプローチが等価な結果が得られることを示す。
- 参考スコア(独自算出の注目度): 82.81964713263483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A popular approach to decompose the neural bases of language consists in
correlating, across individuals, the brain responses to different stimuli (e.g.
regular speech versus scrambled words, sentences, or paragraphs). Although
successful, this `model-free' approach necessitates the acquisition of a large
and costly set of neuroimaging data. Here, we show that a model-based approach
can reach equivalent results within subjects exposed to natural stimuli. We
capitalize on the recently-discovered similarities between deep language models
and the human brain to compute the mapping between i) the brain responses to
regular speech and ii) the activations of deep language models elicited by
modified stimuli (e.g. scrambled words, sentences, or paragraphs). Our
model-based approach successfully replicates the seminal study of Lerner et al.
(2011), which revealed the hierarchy of language areas by comparing the
functional-magnetic resonance imaging (fMRI) of seven subjects listening to
7min of both regular and scrambled narratives. We further extend and precise
these results to the brain signals of 305 individuals listening to 4.1 hours of
narrated stories. Overall, this study paves the way for efficient and flexible
analyses of the brain bases of language.
- Abstract(参考訳): 言語の神経基盤を分解する一般的なアプローチは、個人間で、異なる刺激に対する脳反応(例えば、スクランブルされた単語、文、段落)を関連付けるものである。
成功したが、この「モデルフリー」アプローチは、大規模でコストのかかる神経画像データを取得する必要がある。
本稿では,モデルに基づくアプローチが,自然刺激に曝された被験者の同等の結果に到達できることを示す。
我々は、最近発見された深層言語モデルと人間の脳の類似性を利用して、マッピングの計算を行う。
一 通常の言論に対する脳の反応及び
二 修正刺激(例えば、スクランブル語、文又は段落)により引き起こされる深層言語モデルの活性化
モデルに基づくアプローチはLerner et al. (2011) の初歩的な研究を成功させ, 通常の物語とスクランブルされた物語の7分を聴く7人の機能的磁気共鳴画像(fMRI)を比較して言語領域の階層性を明らかにした。
さらに、これらの結果を4.1時間のナレーションを聴く305人の脳信号に拡張し、精密化する。
全体として、この研究は言語の脳基盤の効率的で柔軟な分析への道を開くものだ。
関連論文リスト
- Brain-Like Language Processing via a Shallow Untrained Multihead Attention Network [16.317199232071232]
大規模言語モデル(LLM)は、人間の言語システムの効果的なモデルであることが示されている。
本研究では、未学習モデルの驚くほどのアライメントを駆動する重要なアーキテクチャコンポーネントについて検討する。
論文 参考訳(メタデータ) (2024-06-21T12:54:03Z) - fMRI predictors based on language models of increasing complexity recover brain left lateralization [4.1618731507412505]
脳の相関の左右差は、パラメータ数によるスケーリング則に従っていることを示す。
この発見は、大きな言語モデルを用いた脳活動の計算的解析と、言語に対する左半球優位を示す失語患者からの古典的な観察を照合する。
論文 参考訳(メタデータ) (2024-05-28T09:24:52Z) - Navigating Brain Language Representations: A Comparative Analysis of Neural Language Models and Psychologically Plausible Models [29.50162863143141]
様々なニューラルネットワークモデルと心理的に妥当なモデルの符号化性能を比較した。
意外なことに、心理学的に妥当なモデルが、さまざまな文脈でニューラルネットワークモデルより優れていることが判明した。
論文 参考訳(メタデータ) (2024-04-30T08:48:07Z) - Causal Graph in Language Model Rediscovers Cortical Hierarchy in Human
Narrative Processing [0.0]
これまでの研究では、言語モデルの特徴がfMRI脳活動にマッピングできることが示されている。
これは、言語モデルにおける情報処理と人間の脳の間に共通点があるのだろうか?
言語モデルにおける情報フローパターンを推定するために,異なる層間の因果関係について検討した。
論文 参考訳(メタデータ) (2023-11-17T10:09:12Z) - Language Generation from Brain Recordings [68.97414452707103]
本稿では,大言語モデルと意味脳デコーダの容量を利用した生成言語BCIを提案する。
提案モデルでは,視覚的・聴覚的言語刺激のセマンティック内容に整合したコヒーレントな言語系列を生成することができる。
本研究は,直接言語生成におけるBCIの活用の可能性と可能性を示すものである。
論文 参考訳(メタデータ) (2023-11-16T13:37:21Z) - Decoding speech perception from non-invasive brain recordings [48.46819575538446]
非侵襲的な記録から知覚音声の自己教師付き表現をデコードするために、コントラスト学習で訓練されたモデルを導入する。
我々のモデルでは、3秒のMEG信号から、1,000以上の異なる可能性から最大41%の精度で対応する音声セグメントを識別できる。
論文 参考訳(メタデータ) (2022-08-25T10:01:43Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Long-range and hierarchical language predictions in brains and
algorithms [82.81964713263483]
深層言語アルゴリズムは隣接した単語の予測に最適化されているが、人間の脳は長距離で階層的な予測を行うように調整されている。
本研究は、予測符号化理論を強化し、自然言語処理における長距離および階層的予測の重要な役割を示唆する。
論文 参考訳(メタデータ) (2021-11-28T20:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。