論文の概要: Fine-grained Analysis of Brain-LLM Alignment through Input Attribution
- arxiv url: http://arxiv.org/abs/2510.12355v1
- Date: Tue, 14 Oct 2025 10:19:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.27589
- Title: Fine-grained Analysis of Brain-LLM Alignment through Input Attribution
- Title(参考訳): 入力属性による脳LLMアライメントの微粒化解析
- Authors: Michela Proietti, Roberto Capobianco, Mariya Toneva,
- Abstract要約: 我々は,脳-LLMアライメントにおいて最も重要な単語を識別する,詳細な入力属性法を提案する。
以上の結果から,BAとNWPは単語サブセットに大きく依存していることが判明した。
- 参考スコア(独自算出の注目度): 10.06817336976995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the alignment between large language models (LLMs) and human brain activity can reveal computational principles underlying language processing. We introduce a fine-grained input attribution method to identify the specific words most important for brain-LLM alignment, and leverage it to study a contentious research question about brain-LLM alignment: the relationship between brain alignment (BA) and next-word prediction (NWP). Our findings reveal that BA and NWP rely on largely distinct word subsets: NWP exhibits recency and primacy biases with a focus on syntax, while BA prioritizes semantic and discourse-level information with a more targeted recency effect. This work advances our understanding of how LLMs relate to human language processing and highlights differences in feature reliance between BA and NWP. Beyond this study, our attribution method can be broadly applied to explore the cognitive relevance of model predictions in diverse language processing tasks.
- Abstract(参考訳): 大きな言語モデル(LLM)と人間の脳活動の整合性を理解することは、言語処理の基礎となる計算原理を明らかにすることができる。
脳-LLMアライメントにおいて最も重要な単語を識別するために,脳-LLMアライメント(BA)とNext-word Prediction(NWP)の関係という,脳-LLMアライメントに関する論争的な研究課題に活用する。
BA と NWP は単語サブセットに大きく依存していることが明らかとなった。NWP は構文に焦点をあてて関連性およびプライマリシーバイアスを示し,BA はより標的となる関連性や談話レベルの情報を優先する。
この研究は、LLMが人間の言語処理とどのように関係しているかについての理解を深め、BAとNWPの機能依存の違いを強調します。
本研究の他に,多様な言語処理タスクにおけるモデル予測の認知的関連性を検討するために,我々の属性手法を広く適用することができる。
関連論文リスト
- Explanations of Large Language Models Explain Language Representations in the Brain [5.7916055414970895]
本稿では、言語処理と脳神経活動の関連性を高めるために、説明可能なAI(XAI)を用いた新しいアプローチを提案する。
帰属法を適用することで,先行する単語が予測に与える影響を定量化する。
より強い属性は、生物学的説明法を評価するために脳のアライメントを示唆している。
論文 参考訳(メタデータ) (2025-02-20T16:05:45Z) - Large Language Models as Neurolinguistic Subjects: Discrepancy between Performance and Competence [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
その結果,(1)心理言語学的・神経言語学的手法では,言語能力と能力が異なっていること,(2)直接確率測定では言語能力が正確に評価されないこと,(3)指導のチューニングでは能力が大きく変化しないが,性能は向上しないことがわかった。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - Natural Language Processing for Dialects of a Language: A Survey [56.93337350526933]
最先端自然言語処理(NLP)モデルは、大規模なトレーニングコーパスでトレーニングされ、評価データセットで最上位のパフォーマンスを報告します。
この調査は、これらのデータセットの重要な属性である言語の方言を掘り下げる。
方言データセットにおけるNLPモデルの性能劣化と言語技術のエクイティへのその影響を動機として,我々はデータセットやアプローチの観点から,方言に対するNLPの過去の研究を調査した。
論文 参考訳(メタデータ) (2024-01-11T03:04:38Z) - Integrating LLM, EEG, and Eye-Tracking Biomarker Analysis for Word-Level
Neural State Classification in Semantic Inference Reading Comprehension [4.390968520425543]
本研究は、意味的関係読解作業中の個人の神経状態に関する洞察を提供することを目的とする。
本研究では,LLM,視線,脳波(EEG)データを共同で分析し,読解中にキーワードに関連性のある単語をどのように処理するかについて検討する。
論文 参考訳(メタデータ) (2023-09-27T15:12:08Z) - Visualizing the Relationship Between Encoded Linguistic Information and
Task Performance [53.223789395577796]
本稿では,Pareto Optimalityの観点から,符号化言語情報とタスクパフォーマンスの動的関係について検討する。
我々は、機械翻訳と言語モデリングという2つの一般的なNLPタスクの実験を行い、様々な言語情報とタスクパフォーマンスの関係について検討する。
実験結果から,NLPタスクには構文情報が有用であるのに対して,より構文情報の符号化が必ずしも優れたパフォーマンスをもたらすとは限らないことが示唆された。
論文 参考訳(メタデータ) (2022-03-29T19:03:10Z) - A Survey On Neural Word Embeddings [0.4822598110892847]
自然言語処理における意味の研究は、分布仮説に依存する。
概念の分散表現という革命的な考えは、人間の心の働きに近い。
ニューラルワード埋め込みは、すべてのNLPタスクを大幅に改善することで、NLPの分野全体を変革した。
論文 参考訳(メタデータ) (2021-10-05T03:37:57Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。