論文の概要: Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects
- arxiv url: http://arxiv.org/abs/2110.06078v1
- Date: Tue, 12 Oct 2021 15:30:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 17:56:37.572101
- Title: Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects
- Title(参考訳): モデルに基づく脳活動分析による305名の言語階層の解明
- Authors: Charlotte Caucheteux, Alexandre Gramfort, Jean-R\'emi King
- Abstract要約: 言語の神経基盤を分解する一般的なアプローチは、個人間で異なる刺激に対する脳の反応を関連付けている。
そこで本研究では,自然刺激に曝露された被験者に対して,モデルに基づくアプローチが等価な結果が得られることを示す。
- 参考スコア(独自算出の注目度): 82.81964713263483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A popular approach to decompose the neural bases of language consists in
correlating, across individuals, the brain responses to different stimuli (e.g.
regular speech versus scrambled words, sentences, or paragraphs). Although
successful, this `model-free' approach necessitates the acquisition of a large
and costly set of neuroimaging data. Here, we show that a model-based approach
can reach equivalent results within subjects exposed to natural stimuli. We
capitalize on the recently-discovered similarities between deep language models
and the human brain to compute the mapping between i) the brain responses to
regular speech and ii) the activations of deep language models elicited by
modified stimuli (e.g. scrambled words, sentences, or paragraphs). Our
model-based approach successfully replicates the seminal study of Lerner et al.
(2011), which revealed the hierarchy of language areas by comparing the
functional-magnetic resonance imaging (fMRI) of seven subjects listening to
7min of both regular and scrambled narratives. We further extend and precise
these results to the brain signals of 305 individuals listening to 4.1 hours of
narrated stories. Overall, this study paves the way for efficient and flexible
analyses of the brain bases of language.
- Abstract(参考訳): 言語の神経基盤を分解する一般的なアプローチは、個人間で、異なる刺激に対する脳反応(例えば、スクランブルされた単語、文、段落)を関連付けるものである。
成功したが、この「モデルフリー」アプローチは、大規模でコストのかかる神経画像データを取得する必要がある。
本稿では,モデルに基づくアプローチが,自然刺激に曝された被験者の同等の結果に到達できることを示す。
我々は、最近発見された深層言語モデルと人間の脳の類似性を利用して、マッピングの計算を行う。
一 通常の言論に対する脳の反応及び
二 修正刺激(例えば、スクランブル語、文又は段落)により引き起こされる深層言語モデルの活性化
モデルに基づくアプローチはLerner et al. (2011) の初歩的な研究を成功させ, 通常の物語とスクランブルされた物語の7分を聴く7人の機能的磁気共鳴画像(fMRI)を比較して言語領域の階層性を明らかにした。
さらに、これらの結果を4.1時間のナレーションを聴く305人の脳信号に拡張し、精密化する。
全体として、この研究は言語の脳基盤の効率的で柔軟な分析への道を開くものだ。
関連論文リスト
- Causal Graph in Language Model Rediscovers Cortical Hierarchy in Human
Narrative Processing [0.0]
これまでの研究では、言語モデルの特徴がfMRI脳活動にマッピングできることが示されている。
これは、言語モデルにおける情報処理と人間の脳の間に共通点があるのだろうか?
言語モデルにおける情報フローパターンを推定するために,異なる層間の因果関係について検討した。
論文 参考訳(メタデータ) (2023-11-17T10:09:12Z) - Language Generation from Brain Recordings [68.97414452707103]
本稿では,大言語モデルと意味脳デコーダの容量を利用した生成言語BCIを提案する。
提案モデルでは,視覚的・聴覚的言語刺激のセマンティック内容に整合したコヒーレントな言語系列を生成することができる。
本研究は,直接言語生成におけるBCIの活用の可能性と可能性を示すものである。
論文 参考訳(メタデータ) (2023-11-16T13:37:21Z) - Speech language models lack important brain-relevant semantics [7.239019253787705]
近年の研究では、テキストベースの言語モデルは、テキスト誘発脳活動と音声誘発脳活動の両方を驚くほど予測している。
このことは、脳内でどのような情報言語モデルが本当に予測されるのかという疑問を引き起こします。
論文 参考訳(メタデータ) (2023-11-08T13:11:48Z) - Decoding speech perception from non-invasive brain recordings [48.46819575538446]
非侵襲的な記録から知覚音声の自己教師付き表現をデコードするために、コントラスト学習で訓練されたモデルを導入する。
我々のモデルでは、3秒のMEG信号から、1,000以上の異なる可能性から最大41%の精度で対応する音声セグメントを識別できる。
論文 参考訳(メタデータ) (2022-08-25T10:01:43Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - Brain-inspired probabilistic generative model for double articulation
analysis of spoken language [7.0349768355860895]
ヒト脳は、音声言語における二重関節構造を解析する。
ヒトの脳内でDAAがどのように実行されるかは未定である。
本研究では、いくつかの神経科学調査の結果に基づいて、脳内で実現可能なDAA仮説のためのPGMを提案する。
論文 参考訳(メタデータ) (2022-07-06T06:03:10Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Long-range and hierarchical language predictions in brains and
algorithms [82.81964713263483]
深層言語アルゴリズムは隣接した単語の予測に最適化されているが、人間の脳は長距離で階層的な予測を行うように調整されている。
本研究は、予測符号化理論を強化し、自然言語処理における長距離および階層的予測の重要な役割を示唆する。
論文 参考訳(メタデータ) (2021-11-28T20:26:07Z) - Does injecting linguistic structure into language models lead to better
alignment with brain recordings? [13.880819301385854]
言語モデルと脳記録との整合性は,構文的あるいは意味論的フォーマリズムからのアノテーションに偏りがある場合と評価する。
提案手法は,脳内の意味の組成について,より標的となる仮説の評価を可能にする。
論文 参考訳(メタデータ) (2021-01-29T14:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。