論文の概要: Component-Level Lesioning of Language Models Reveals Clinically Aligned Aphasia Phenotypes
- arxiv url: http://arxiv.org/abs/2601.19723v1
- Date: Tue, 27 Jan 2026 15:47:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.377845
- Title: Component-Level Lesioning of Language Models Reveals Clinically Aligned Aphasia Phenotypes
- Title(参考訳): 失語症候型の臨床診断における言語モデルの成分レベル破壊
- Authors: Yifan Wang, Jichen Zheng, Jingyuan Sun, Yunhao Zhang, Chunyu Ye, Jixing Li, Chengqing Zong, Shaonan Wang,
- Abstract要約: 大規模言語モデルにおける機能的コンポーネントを選択的に摂動することで失語をシミュレートするコンポーネントレベルフレームワークを提案する。
我々のパイプラインはBrocaとWernickeの失語に対するサブタイプリンクコンポーネントを特定し、トップkサブタイプリンクコンポーネントを段階的に摂動させることにより、段階的障害を誘発する。
アーキテクチャや障害戦略を越えて、サブタイプターゲットの摂動は、サイズにマッチしたランダムな摂動よりも、より体系的で失語症のような回帰をもたらす。
- 参考スコア(独自算出の注目度): 40.41503864764337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) increasingly exhibit human-like linguistic behaviors and internal representations that they could serve as computational simulators of language cognition. We ask whether LLMs can be systematically manipulated to reproduce language-production impairments characteristic of aphasia following focal brain lesions. Such models could provide scalable proxies for testing rehabilitation hypotheses, and offer a controlled framework for probing the functional organization of language. We introduce a clinically grounded, component-level framework that simulates aphasia by selectively perturbing functional components in LLMs, and apply it to both modular Mixture-of-Experts models and dense Transformers using a unified intervention interface. Our pipeline (i) identifies subtype-linked components for Broca's and Wernicke's aphasia, (ii) interprets these components with linguistic probing tasks, and (iii) induces graded impairments by progressively perturbing the top-k subtype-linked components, evaluating outcomes with Western Aphasia Battery (WAB) subtests summarized by Aphasia Quotient (AQ). Across architectures and lesioning strategies, subtype-targeted perturbations yield more systematic, aphasia-like regressions than size-matched random perturbations, and MoE modularity supports more localized and interpretable phenotype-to-component mappings. These findings suggest that modular LLMs, combined with clinically informed component perturbations, provide a promising platform for simulating aphasic language production and studying how distinct language functions degrade under targeted disruptions.
- Abstract(参考訳): 大規模言語モデル (LLM) は、言語認知の計算シミュレータとして機能する人間のような言語行動や内部表現をますます表している。
局所脳病変にともなう失語症の特徴を再現するために, LLMを体系的に操作できるかどうかを問う。
このようなモデルは、リハビリテーション仮説をテストするためのスケーラブルなプロキシを提供し、言語の機能的組織を探索するための制御されたフレームワークを提供する。
LLMにおける機能的コンポーネントを選択的に摂動させることで失語をシミュレートする臨床基盤型コンポーネントレベルフレームワークを導入し,それを統合的介入インタフェースを用いて,モジュール型Mixture-of-Expertsモデルと高密度トランスフォーマーの両方に適用する。
パイプライン
i) Broca と Wernicke の失語に対するサブタイプリンク成分を同定する。
(二)これらの構成要素を言語探索課題で解釈し、
3) Aphasia Quotient(AQ)で要約されたWAB(Western Aphasia Battery)サブテストの結果を評価し, 上位kサブタイプリンク成分を徐々に摂動させることにより, 段階的障害を誘発する。
アーキテクチャや障害戦略全体にわたって、サブタイプターゲットの摂動は、サイズにマッチしたランダム摂動よりも、より体系的で失語様の回帰をもたらし、MoEモジュラリティはより局所的で解釈可能な表現型からコンポーネントへのマッピングをサポートする。
これらの結果から, モジュール型LLMと臨床的に通知されたコンポーネントの摂動が相まって, 失語生成をシミュレートし, 目的的破壊下での言語機能の劣化について検討する上で有望なプラットフォームとなることが示唆された。
関連論文リスト
- E^2-LLM: Bridging Neural Signals and Interpretable Affective Analysis [54.763420895859035]
脳波からの感情分析のための最初のMLLMフレームワークであるELLM2-EEG-to-Emotion Large Language Modelを提案する。
ELLMは学習可能なプロジェクション層を通じて、トレーニング済みのEEGエンコーダとQベースのLLMを統合し、マルチステージのトレーニングパイプラインを使用する。
7つの感情カテゴリーにまたがるデータセット実験により, ELLM2-EEG-to-Emotion Large Language Modelは感情分類において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2026-01-11T13:21:20Z) - Generative Human-Object Interaction Detection via Differentiable Cognitive Steering of Multi-modal LLMs [85.69785384599827]
人間と物体の相互作用(Human-object Interaction、HOI)の検出は、人と物体のペアとそれらの相互作用を局在させることを目的としている。
既存のメソッドはクローズドワールドの仮定の下で動作し、タスクを未定義の小さな動詞集合上の分類問題として扱う。
本稿では,閉集合分類タスクから開語彙生成問題へのHOI検出を再構成する新しい生成推論・ステアブル知覚フレームワークGRASP-HOを提案する。
論文 参考訳(メタデータ) (2025-12-19T14:41:50Z) - Multi-View Attention Multiple-Instance Learning Enhanced by LLM Reasoning for Cognitive Distortion Detection [1.660734109310745]
我々は,Large Language Models(LLMs)とMILアーキテクチャを組み合わせた新しいフレームワークを提案し,解釈可能性と表現レベルの推論を向上した。
以上の結果から,精神保健NLPの細粒度推論に対する心理学的根拠と一般化可能なアプローチが示唆された。
論文 参考訳(メタデータ) (2025-09-22T00:18:58Z) - Mechanistic Understanding and Mitigation of Language Confusion in English-Centric Large Language Models [56.61984030508691]
言語混乱に関する最初の機械論的解釈可能性研究について述べる。
混乱点(CP)がこの現象の中心であることを示す。
比較分析によって同定された少数の臨界ニューロンを多言語で調整したニューロンで編集すると、混乱が著しく軽減されることがわかった。
論文 参考訳(メタデータ) (2025-05-22T11:29:17Z) - Mitigating Hallucinations of Large Language Models in Medical Information Extraction via Contrastive Decoding [92.32881381717594]
医療情報抽出タスクにおける幻覚の問題を解決するために,ALCD(ALternate Contrastive Decoding)を導入する。
ALCDは, 従来の復号法に比べて幻覚の解消に有意な改善が見られた。
論文 参考訳(メタデータ) (2024-10-21T07:19:19Z) - A Methodology for Explainable Large Language Models with Integrated Gradients and Linguistic Analysis in Text Classification [2.556395214262035]
アルツハイマー病(AD)のような発声に影響を及ぼす神経疾患は、患者と介護者の生活に大きな影響を及ぼす。
近年のLarge Language Model (LLM) アーキテクチャの進歩は、自然発声による神経疾患の代表的特徴を識別する多くのツールを開発した。
本稿では,ADに代表される語彙成分を識別できるSLIME法を提案する。
論文 参考訳(メタデータ) (2024-09-30T21:45:02Z) - Investigating the Timescales of Language Processing with EEG and Language Models [0.0]
本研究では,事前学習した言語モデルと脳波データからの単語表現のアライメントを検討することで,言語処理の時間的ダイナミクスについて検討する。
テンポラル・レスポンス・ファンクション(TRF)モデルを用いて、神経活動が異なる層にまたがるモデル表現とどのように対応するかを検討する。
分析の結果,異なる層からのTRFのパターンが明らかとなり,語彙的および構成的処理への様々な貢献が明らかになった。
論文 参考訳(メタデータ) (2024-06-28T12:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。