論文の概要: Intrinsic Tensor Field Propagation in Large Language Models: A Novel Approach to Contextual Information Flow
- arxiv url: http://arxiv.org/abs/2501.18957v2
- Date: Tue, 25 Mar 2025 12:59:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:50:25.444211
- Title: Intrinsic Tensor Field Propagation in Large Language Models: A Novel Approach to Contextual Information Flow
- Title(参考訳): 大規模言語モデルにおける内在的テンソル場伝播:文脈情報流に対する新しいアプローチ
- Authors: Alfred Bexley, Lukas Radcliffe, Giles Weatherstone, Joseph Sakau,
- Abstract要約: 内在的場伝播は、様々な言語構造にわたる文脈的保持、依存性の解決、推論を改善する。
オープンソーストランスフォーマーベースのモデルで行った実験では、様々な言語構造にわたる文脈保持、依存関係の解決、推論において測定可能な改善が提供されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Context propagation remains a central challenge in language model architectures, particularly in tasks requiring the retention of long-range dependencies. Conventional attention mechanisms, while effective in many applications, exhibit limitations in maintaining coherent contextual representations over extended sequences due to their reliance on discrete token interactions. A novel approach is introduced through the formulation of Intrinsic Tensor Field Propagation (ITFP), which models contextual relationships as continuous tensor fields distributed across token embeddings. The propagation dynamics are governed through differential equations that enable a structured flow of contextual information, augmenting the standard attention mechanism to enhance coherence and recall. A series of experiments conducted on an open-source transformer-based model demonstrate that ITFP provides measurable improvements in contextual retention, dependency resolution, and inference stability across various linguistic structures. Comparisons with baseline models reveal a reduction in syntactic inconsistencies and factual errors, while ablation studies indicate that the choice of propagation depth and integration strength significantly impacts model performance. Additional evaluations assessing domain generalization suggest that ITFP effectively adapts across different text genres, reinforcing its applicability beyond conventional language modeling tasks. Although computational trade-offs are introduced through the inclusion of tensor field computations, empirical findings suggest that the benefits in accuracy and coherence outweigh the increased processing demands.
- Abstract(参考訳): コンテキスト伝搬は、言語モデルアーキテクチャ、特に長距離依存の維持を必要とするタスクにおいて、依然として中心的な課題である。
従来の注意機構は、多くの応用において有効であるが、離散トークン相互作用に依存するため、拡張シーケンス上でのコヒーレントな文脈表現の維持に限界がある。
トークン埋め込みに分散した連続テンソル場としてコンテキスト関係をモデル化するITFP(Intrinsic Tensor Field Propagation)の定式化によって,新しいアプローチが導入された。
伝播ダイナミクスは、コンテキスト情報の構造的な流れを可能にする微分方程式によって制御され、コヒーレンスとリコールを強化するための標準的な注意機構が強化される。
オープンソースのトランスフォーマーモデルを用いて一連の実験により、IFFPは様々な言語構造における文脈保持、依存性の解決、推論安定性の計測可能な改善を提供することを示した。
ベースラインモデルとの比較では,構文的不整合と事実的誤りの低減が示され,アブレーション研究では,伝播深さと積分強度の選択がモデル性能に大きな影響を及ぼすことが示された。
ドメインの一般化を評価するさらなる評価は、IFFPが従来の言語モデリングタスクを超えた適用性を強化し、様々なテキストジャンルに効果的に適応することを示唆している。
テンソル場計算の導入によって計算トレードオフがもたらされるが、実験的な結果は、精度とコヒーレンスの利点が、処理要求の増加よりも優れていることを示唆している。
関連論文リスト
- Statistical Coherence Alignment for Large Language Model Representation Learning Through Tensor Field Convergence [0.0]
表現学習は、言語の統計的特性を捉えるために、内部埋め込みを構築する上で中心的な役割を果たす。
コヒーレンスアライメントはテンソル場収束を通じて構造化トークン表現を強制する手法として導入された。
経験的評価は、コヒーレンス制約の適用によりパープレキシティが向上し、分類精度が向上し、稀な単語の埋め込みが洗練されることを示している。
論文 参考訳(メタデータ) (2025-02-13T23:24:25Z) - Context-Preserving Gradient Modulation for Large Language Models: A Novel Approach to Semantic Consistency in Long-Form Text Generation [0.19791587637442667]
文脈的関連性に応じてパラメータ更新を動的に調整する新しい変調勾配法が導入された。
提案手法は,計算オーバーヘッドを著しく抑えることなく,モデル生成物語の安定性を向上させる。
論文 参考訳(メタデータ) (2025-02-05T22:13:06Z) - Structural Embedding Projection for Contextual Large Language Model Inference [0.0]
構造化埋め込み変換は、言語モデル推論の効率性と一貫性を高めるための有望なアプローチを提供する。
構造埋め込み射影 (Structure Embedding Projection, SEP) の数学的定式化により、埋め込み空間は構造化された文脈関係を捉えることができる。
語彙の多様性に対するSEPの影響は、埋め込み修飾がモデルの語彙使用に影響を与えることを示唆している。
論文 参考訳(メタデータ) (2025-01-31T00:46:21Z) - Context-Aware Semantic Recomposition Mechanism for Large Language Models [0.0]
コンテキスト・アウェア・セマンティック・リコレーション・メカニズム(CASRM)は、大規模テキスト生成タスクにおけるコヒーレンス、コンテキスト適応性、エラー伝搬の制限に対処する新しいフレームワークとして導入された。
実験により、技術的、会話的、物語的テキストを含む複数の領域における意味的コヒーレンスを大幅に改善した。
このフレームワークは、逐次的なタスクにおけるエラーの伝播を軽減し、対話継続と多段階テキスト合成のパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2025-01-29T02:38:28Z) - Contextual Reinforcement in Multimodal Token Compression for Large Language Models [0.0]
トークン圧縮は、ますます複雑で多様なデータセットを扱うためにモデルをスケーリングする上で、依然として重要な課題である。
相互依存や意味的関連性を通じてトークンの重要度を動的に調整する,コンテキスト強化に基づく新しいメカニズムを導入する。
このアプローチは,情報表現の品質と一貫性を維持しつつ,トークン使用量の大幅な削減を可能にする。
論文 参考訳(メタデータ) (2025-01-28T02:44:31Z) - Sequential Representation Learning via Static-Dynamic Conditional Disentanglement [58.19137637859017]
本稿では,ビデオ中の時間非依存要因と時間変化要因を分離することに着目し,逐次的データ内での自己教師付き不整合表現学習について検討する。
本稿では,静的/動的変数間の因果関係を明示的に考慮し,それらの因子間の通常の独立性仮定を破る新しいモデルを提案する。
実験により、提案手法は、シーンのダイナミックスが内容に影響されるシナリオにおいて、従来の複雑な最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-10T17:04:39Z) - Investigating the Role of Instruction Variety and Task Difficulty in Robotic Manipulation Tasks [50.75902473813379]
本研究は、そのようなモデルの一般化能力における命令と入力の役割を体系的に検証する包括的評価フレームワークを導入する。
提案フレームワークは,極度の命令摂動に対するマルチモーダルモデルのレジリエンスと,観測的変化に対する脆弱性を明らかにする。
論文 参考訳(メタデータ) (2024-07-04T14:36:49Z) - Correlation Information Bottleneck: Towards Adapting Pretrained
Multimodal Models for Robust Visual Question Answering [63.87200781247364]
相関情報ボトルネック (CIB) は圧縮と表現の冗長性のトレードオフを求める。
マルチモーダル入力と表現の相互情報に対して,理論上界を厳密に導出する。
論文 参考訳(メタデータ) (2022-09-14T22:04:10Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Learning Relation Alignment for Calibrated Cross-modal Retrieval [52.760541762871505]
言語的・視覚的関係のセマンティックな距離を計測し,関係の一貫性を定量化するための新しい指標ISD(Intra-modal Self-attention Distance)を提案する。
ISDを最適化し、モダル間アライメントを介してモダル内アライメントを相互に調整するための正規化訓練法である、モダル内アライメント(IAIS)について述べる。
論文 参考訳(メタデータ) (2021-05-28T14:25:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。