論文の概要: Scale-Dependent Semantic Dynamics Revealed by Allan Deviation
- arxiv url: http://arxiv.org/abs/2601.21678v1
- Date: Thu, 29 Jan 2026 13:10:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.836186
- Title: Scale-Dependent Semantic Dynamics Revealed by Allan Deviation
- Title(参考訳): スケール依存セマンティックダイナミクスのアラン偏差による解明
- Authors: Debayan Dasgupta,
- Abstract要約: 順序文埋め込みを変位信号として扱うことで意味の安定性を解析する。
大規模言語モデルは人間のテキストの局所的なスケーリング統計を模倣することに成功したが、安定性の地平線は体系的に低下していることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While language progresses through a sequence of semantic states, the underlying dynamics of this progression remain elusive. Here, we treat the semantic progression of written text as a stochastic trajectory in a high-dimensional state space. We utilize Allan deviation, a tool from precision metrology, to analyze the stability of meaning by treating ordered sentence embeddings as a displacement signal. Our analysis reveals two distinct dynamical regimes: short-time power-law scaling, which differentiates creative literature from technical texts, and a long-time crossover to a stability-limited noise floor. We find that while large language models successfully mimic the local scaling statistics of human text, they exhibit a systematic reduction in their stability horizon. These results establish semantic coherence as a measurable physical property, offering a framework to differentiate the nuanced dynamics of human cognition from the patterns generated by algorithmic models.
- Abstract(参考訳): 言語は一連のセマンティックな状態を通して進行するが、この進化の根底にある力学はいまだ解明されていない。
本稿では,テキストの意味的進行を高次元状態空間における確率的軌跡として扱う。
そこで我々は,高精度気象学のツールであるAllan deviationを用いて,順序文の埋め込みを変位信号として扱うことにより,意味の安定性を解析する。
我々の分析では、創造的な文学と技術テキストを区別する短時間のパワールールスケーリングと、安定性に制限のあるノイズフロアへの長時間のクロスオーバーという、2つの異なる力学機構が明らかになっている。
大規模言語モデルは人間のテキストの局所的なスケーリング統計を模倣することに成功したが、安定性の地平線は体系的に低下していることがわかった。
これらの結果は、意味的コヒーレンスを測定可能な物理的特性として確立し、人間の認知の微妙なダイナミクスとアルゴリズムモデルによって生成されたパターンを区別する枠組みを提供する。
関連論文リスト
- Dynamical Systems Analysis Reveals Functional Regimes in Large Language Models [0.8694591156258423]
大規模言語モデルは高次元内部力学を用いてテキスト生成を行う。
ほとんどの解釈可能性のアプローチは静的表現や因果的介入に重点を置いており、時間構造はほとんど探索されていない。
本稿では,自己回帰生成中のアクティベーション時系列から計算した複合動的計量について論じる。
論文 参考訳(メタデータ) (2026-01-11T21:57:52Z) - Stable Language Guidance for Vision-Language-Action Models [62.80963701282789]
残留セマンティックステアリング(Residual Semantic Steering)は、セマンティック実行から身体的余裕を逸脱する確率的フレームワークである。
RSSは最先端の堅牢性を実現し、敵対的な言語摂動の下でも性能を維持する。
論文 参考訳(メタデータ) (2026-01-07T16:16:10Z) - LyTimeT: Towards Robust and Interpretable State-Variable Discovery [7.505092370141079]
LyTimeTは、解釈可能な変数抽出のためのフレームワークである。
動的ビデオシステムの堅牢で安定した潜伏表現を学習する。
その結果,時間的注意と安定性の制約を組み合わせることで,予測モデルが得られることがわかった。
論文 参考訳(メタデータ) (2025-10-22T16:03:10Z) - Discovering dynamical laws for speech gestures [0.0]
音声中の調音動作を規定する記号方程式の形でモデルを発見する。
スパースシンボル回帰アルゴリズムは、舌と唇の運動データからモデルを発見するために用いられる。
論文 参考訳(メタデータ) (2025-04-07T09:03:32Z) - Unraveling Text Generation in LLMs: A Stochastic Differential Equation Approach [3.4039202831583903]
本稿では,GPT-4 のような大規模言語モデル (LLM) のテキスト生成過程を解釈するための微分方程式 (SDE) の適用について検討する。
我々はSDEを用いてこの生成過程を表現し、決定論的傾向と摂動の両方を捉える。
ニューラルネットワークを用いてこれらの関数を適合させ、実世界のテキストコーパス上でモデルを検証する。
論文 参考訳(メタデータ) (2024-08-17T15:30:27Z) - Vocabulary-Defined Semantics: Latent Space Clustering for Improving In-Context Learning [32.178931149612644]
コンテキスト内学習により、言語モデルは下流のデータに適応したり、プロンプト内のデモとして少数のサンプルでタスクを組み込むことができる。
しかし、文脈内学習のパフォーマンスは、実演の質、形式、順序によって不安定である可能性がある。
語彙定義意味論(vocabulary-defined semantics)を提案する。
論文 参考訳(メタデータ) (2024-01-29T14:29:48Z) - PoetryDiffusion: Towards Joint Semantic and Metrical Manipulation in
Poetry Generation [58.36105306993046]
制御可能なテキスト生成は自然言語生成(NLG)において困難かつ有意義な分野である
本稿では,ソネット生成のための拡散モデルと中国語のSongCi詩の創始について述べる。
本モデルでは,人的評価だけでなく,意味的,計量的,総合的な性能の自動評価において,既存のモデルよりも優れる。
論文 参考訳(メタデータ) (2023-06-14T11:57:31Z) - Incorporating Dynamic Semantics into Pre-Trained Language Model for
Aspect-based Sentiment Analysis [67.41078214475341]
ABSAの動的アスペクト指向セマンティクスを学ぶために,DR-BERT(Dynamic Re-weighting BERT)を提案する。
具体的には、まずStack-BERT層を主エンコーダとして、文の全体的な意味を理解する。
次に、軽量な動的再重み付けアダプタ(DRA)を導入して微調整する。
論文 参考訳(メタデータ) (2022-03-30T14:48:46Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z) - Euclideanizing Flows: Diffeomorphic Reduction for Learning Stable
Dynamical Systems [74.80320120264459]
本研究では、限られた数の人間の実演からそのような動きを学ぶためのアプローチを提案する。
複素運動は安定な力学系のロールアウトとして符号化される。
このアプローチの有効性は、確立されたベンチマーク上での検証と、現実世界のロボットシステム上で収集されたデモによって実証される。
論文 参考訳(メタデータ) (2020-05-27T03:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。