論文の概要: Cross-Linguistic Analysis of Memory Load in Sentence Comprehension: Linear Distance and Structural Density
- arxiv url: http://arxiv.org/abs/2509.20916v1
- Date: Thu, 25 Sep 2025 08:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.803299
- Title: Cross-Linguistic Analysis of Memory Load in Sentence Comprehension: Linear Distance and Structural Density
- Title(参考訳): 文理解における記憶負荷の言語間比較分析:線形距離と構造密度
- Authors: Krishna Aggarwal,
- Abstract要約: 本研究では, 文レベルの記憶負荷が, 構文的に関連した単語間の線形近接や, 介在物の構造密度によってよりよく説明されるかを検討する。
複数の言語にまたがる調和した依存性ツリーバンクと混合効果フレームワークを用いて、分析は文の長さ、依存関係の長さ、インターベンタ複雑度をメモリ負荷測定の予測器として共同で評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study examines whether sentence-level memory load in comprehension is better explained by linear proximity between syntactically related words or by the structural density of the intervening material. Building on locality-based accounts and cross-linguistic evidence for dependency length minimization, the work advances Intervener Complexity-the number of intervening heads between a head and its dependent-as a structurally grounded lens that refines linear distance measures. Using harmonized dependency treebanks and a mixed-effects framework across multiple languages, the analysis jointly evaluates sentence length, dependency length, and Intervener Complexity as predictors of the Memory-load measure. Studies in Psycholinguistics have reported the contributions of feature interference and misbinding to memory load during processing. For this study, I operationalized sentence-level memory load as the linear sum of feature misbinding and feature interference for tractability; current evidence does not establish that their cognitive contributions combine additively. All three factors are positively associated with memory load, with sentence length exerting the broadest influence and Intervener Complexity offering explanatory power beyond linear distance. Conceptually, the findings reconcile linear and hierarchical perspectives on locality by treating dependency length as an important surface signature while identifying intervening heads as a more proximate indicator of integration and maintenance demands. Methodologically, the study illustrates how UD-based graph measures and cross-linguistic mixed-effects modelling can disentangle linear and structural contributions to processing efficiency, providing a principled path for evaluating competing theories of memory load in sentence comprehension.
- Abstract(参考訳): 本研究では, 文レベルの記憶負荷が, 構文的関連語間の線形近接や, 介在物の構造密度によってよりよく説明されるかを検討する。
局所性に基づく説明と依存関係長の最小化に関する言語横断的な証拠に基づいて、この研究は、線形距離測定を洗練させる構造的接地レンズとして、頭とそれに依存するヘッドの数であるインターベンタ複雑度(Intervener Complexity)を推し進めた。
複数の言語にまたがる調和した依存性ツリーバンクと混合効果フレームワークを用いて、分析は文の長さ、依存関係の長さ、インターベンタ複雑度をメモリ負荷測定の予測器として共同で評価する。
心理言語学の研究は、処理中のメモリ負荷に対する特徴的干渉と誤結合の寄与を報告している。
本研究では, 文レベルの記憶負荷を, 機能的不結合の線形和として, トラクタビリティに対する特徴的干渉として運用した。
いずれの因子も記憶負荷と正の相関があり、文長が最も大きな影響を受けており、インターベンタ複雑度は線形距離を超えて説明力を与える。
概念的には, 依存関係長を重要な表面署名として扱うことにより, 局所性に関する線形的, 階層的視点を整理し, 介入する頭部を, 統合と保守の要求のより近い指標として同定する。
本研究は,UDに基づくグラフ測度と多言語混合効果モデリングが,処理効率に対する線形および構造的貢献を解消し,文理解における記憶負荷の競合理論を評価するための原則的経路を提供する。
関連論文リスト
- Semantic Anchoring in Agentic Memory: Leveraging Linguistic Structures for Persistent Conversational Context [0.0]
本稿では,ベクトルベースストレージを明示的な言語的手がかりで強化し,ニュアンス付きコンテキスト豊富な交換のリコールを改善するハイブリッド型エージェントメモリアーキテクチャを提案する。
適応した長期対話データセットの実験では、意味的アンカーがRAGベースラインよりも最大18%、事実的リコールと談話のコヒーレンスを改善することが示されている。
論文 参考訳(メタデータ) (2025-08-18T05:14:48Z) - Cognitive Weave: Synthesizing Abstracted Knowledge with a Spatio-Temporal Resonance Graph [2.800801614127705]
本稿では,多層動的共鳴グラフ(GSTR)を中心としたメモリフレームワークであるCognitive Weaveを紹介する。
GSTRはセマンティック・リッチ・インサイト・パーティクル(IP)として情報を管理し、専用のセマンティック・オーラル・インタフェース(ISO)を通じて共振鍵、シグニケータ、状況インプリントを付加する。
Cognitive Weaveの重要なコンポーネントは認知プロセスである。これは、高レベルの知識構造を凝縮した洞察集約(AsI)の合成を含む。
論文 参考訳(メタデータ) (2025-06-09T18:00:46Z) - Hallucination Detection in LLMs with Topological Divergence on Attention Graphs [64.74977204942199]
幻覚(Halucination)、すなわち、事実的に誤ったコンテンツを生成することは、大きな言語モデルにとって重要な課題である。
本稿では,TOHA (Topology-based HAllucination detector) をRAG設定に導入する。
論文 参考訳(メタデータ) (2025-04-14T10:06:27Z) - Nonlinear classification of neural manifolds with contextual information [6.292933471495322]
本稿では,入力空間における遅延方向を文脈情報に関連付ける理論フレームワークを提案する。
我々は、多様体幾何学と文脈相関に依存する文脈依存多様体容量の正確な公式を導出する。
我々のフレームワークの表現性の向上は、階層階層の初期段階のディープネットワークにおける表現再構成を捉えるが、以前は分析にはアクセスできない。
論文 参考訳(メタデータ) (2024-05-10T23:37:31Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Linear Classification of Neural Manifolds with Correlated Variability [3.3946853660795893]
対象表現間の相関関係がキャパシティ,すなわち線形分離可能性にどのように影響するかを示す。
次に、この結果を用いて、ディープネットワークデータのキャパシティを正確に推定する。
論文 参考訳(メタデータ) (2022-11-27T23:01:43Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Estimating Causal Effects with the Neural Autoregressive Density
Estimator [6.59529078336196]
我々は、Pearlのdo-calculusフレームワーク内の因果効果を推定するために、神経自己回帰密度推定器を使用する。
本手法は,変数間の相互作用を明示的にモデル化することなく,非線形システムから因果効果を抽出できることを示す。
論文 参考訳(メタデータ) (2020-08-17T13:12:38Z) - Optimal Learning with Excitatory and Inhibitory synapses [91.3755431537592]
相関関係の存在下でアナログ信号間の関連性を保持するという課題について検討する。
ランダムな入力および出力プロセスのパワースペクトルの観点から、典型的な学習性能を特徴付ける。
論文 参考訳(メタデータ) (2020-05-25T18:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。