論文の概要: Structural Similarities Between Language Models and Neural Response
Measurements
- arxiv url: http://arxiv.org/abs/2306.01930v2
- Date: Tue, 31 Oct 2023 15:02:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 23:54:41.288022
- Title: Structural Similarities Between Language Models and Neural Response
Measurements
- Title(参考訳): 言語モデルとニューラルレスポンス測定における構造的類似性
- Authors: Jiaang Li, Antonia Karamolegkou, Yova Kementchedjhieva, Mostafa Abdou,
Sune Lehmann, Anders S{\o}gaard
- Abstract要約: 大規模言語モデルにより誘導されるジオメトリが、脳の復号化の文脈において類似性を共有するかについて検討する。
より大きなニューラルネットワークモデルが得られれば増えるほど、その表現は脳画像からのニューラルレスポンス測定と構造的に類似していることが分かります。
- 参考スコア(独自算出の注目度): 15.769054538225314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have complicated internal dynamics, but induce
representations of words and phrases whose geometry we can study. Human
language processing is also opaque, but neural response measurements can
provide (noisy) recordings of activation during listening or reading, from
which we can extract similar representations of words and phrases. Here we
study the extent to which the geometries induced by these representations,
share similarities in the context of brain decoding. We find that the larger
neural language models get, the more their representations are structurally
similar to neural response measurements from brain imaging. Code is available
at \url{https://github.com/coastalcph/brainlm}.
- Abstract(参考訳): 大きな言語モデル(LLM)は複雑な内部力学を持つが、幾何学を研究できる単語やフレーズの表現を誘導する。
人間の言語処理も不透明であるが、ニューラルレスポンス測定は、聞き取りや読み上げ時のアクティベーションの記録を(騒々しい)提供し、そこから単語やフレーズの類似表現を抽出することができる。
本稿では,これらの表現によって引き起こされるジオメトリが脳デコーディングの文脈において類似性を持つ程度について検討する。
より大きなニューラルネットワークモデルが得られるほど、その表現は脳画像からの神経反応の測定と構造的に似ています。
コードは \url{https://github.com/coastalcph/brainlm} で入手できる。
関連論文リスト
- Language Reconstruction with Brain Predictive Coding from fMRI Data [28.217967547268216]
予測符号化の理論は、人間の脳が将来的な単語表現を継続的に予測していることを示唆している。
textscPredFTは、BLEU-1スコアが最大27.8%$の最先端のデコード性能を実現する。
論文 参考訳(メタデータ) (2024-05-19T16:06:02Z) - Divergences between Language Models and Human Brains [63.405788999891335]
最近の研究は、言語モデルの内部表現(LM)を用いて脳信号が効果的に予測できることを示唆している。
我々は、LMと人間が言語をどのように表現し、使用するかに明確な違いがあることを示します。
我々は、社会的・情緒的知性と身体的常識という、LMによってうまく捉えられていない2つの領域を識別する。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z) - BrainBERT: Self-supervised representation learning for intracranial
recordings [18.52962864519609]
我々は、神経科学に現代的な表現学習アプローチをもたらす頭蓋内記録のための再利用可能な変換器BrainBERTを開発した。
NLPや音声認識と同様に、この変換器は複雑な概念を高い精度で、はるかに少ないデータで分類することができる。
将来的には、表現学習を使用することで、はるかに多くの概念がニューラル録音から切り離され、言語モデルがアンロックされた言語のように脳をアンロックする可能性がある。
論文 参考訳(メタデータ) (2023-02-28T07:40:37Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Same Neurons, Different Languages: Probing Morphosyntax in Multilingual
Pre-trained Models [84.86942006830772]
多言語事前学習モデルは文法に関する言語・ユニバーサルの抽象化を導出できると推測する。
43の言語と14のモルフォシンタクティックなカテゴリーで、最先端のニューロンレベルのプローブを用いて、初めて大規模な実験を行った。
論文 参考訳(メタデータ) (2022-05-04T12:22:31Z) - Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects [82.81964713263483]
言語の神経基盤を分解する一般的なアプローチは、個人間で異なる刺激に対する脳の反応を関連付けている。
そこで本研究では,自然刺激に曝露された被験者に対して,モデルに基づくアプローチが等価な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-12T15:30:21Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Does injecting linguistic structure into language models lead to better
alignment with brain recordings? [13.880819301385854]
言語モデルと脳記録との整合性は,構文的あるいは意味論的フォーマリズムからのアノテーションに偏りがある場合と評価する。
提案手法は,脳内の意味の組成について,より標的となる仮説の評価を可能にする。
論文 参考訳(メタデータ) (2021-01-29T14:42:02Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。