論文の概要: Asymptotic Semantic Collapse in Hierarchical Optimization
- arxiv url: http://arxiv.org/abs/2602.18450v1
- Date: Sun, 01 Feb 2026 00:02:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.569411
- Title: Asymptotic Semantic Collapse in Hierarchical Optimization
- Title(参考訳): 階層最適化における漸近的セマンティック崩壊
- Authors: Faruk Alpay, Bugra Kilictas,
- Abstract要約: マルチエージェント言語システムは、共有された支配的コンテキストが個々の意味論を徐々に吸収する障害モードを示すことができる。
階層最適化における漸近的セマンティック崩壊(Asymptotic Semantic Collapse in Hierarchical Optimization)という名でこの効果を研究する。
我々は、周辺エージェントノードとの繰り返しの相互作用が、グローバルな損失を最小限に抑えるアライメントを駆動していることを示す。
- 参考スコア(独自算出の注目度): 0.5729426778193398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent language systems can exhibit a failure mode where a shared dominant context progressively absorbs individual semantics, yielding near-uniform behavior across agents. We study this effect under the name Asymptotic Semantic Collapse in Hierarchical Optimization. In a closed linguistic setting with a Dominant Anchor Node whose semantic state has effectively infinite inertia, we show that repeated interactions with Peripheral Agent Nodes drive an asymptotic alignment that minimizes a global loss. We model semantic states as points on a Riemannian manifold and analyze the induced projection dynamics. Two consequences follow. First, the limiting semantic configuration is insensitive to the optimization history: both smooth gradient-style updates and stochastic noisy updates converge to the same topological endpoint, establishing path independence at convergence. Second, the degree of context dependence controls information content: moving from atomic (independent) representations to fully entangled (context-bound) representations forces the node entropy, interpreted as available degrees of freedom, to vanish in the limit. The theory connects information-theoretic quantities with differential-geometric structure and suggests an interpretation as an immutable consensus rule that constrains agents to a shared semantic grammar. A lightweight dataset-free benchmark on an RWKV-7 13B GGUF checkpoint complements the analysis, reporting zero hash collisions, mean compliance of 0.50 under greedy decoding and 0.531 under stochastic decoding, and final Jaccard-to-anchor similarity values of 0.295 and 0.224, respectively.
- Abstract(参考訳): マルチエージェント言語システムは、共有された支配的コンテキストが個々の意味論を徐々に吸収し、エージェント間のほぼ均一な振る舞いをもたらす障害モードを示すことができる。
階層最適化における漸近的セマンティック崩壊(Asymptotic Semantic Collapse in Hierarchical Optimization)という名でこの効果を研究する。
意味的状態が事実上無限の慣性を持つ支配的アンカーノードを用いた閉言語設定では、周辺エージェントノードとの繰り返しの相互作用が、世界的損失を最小限に抑える漸近的アライメントを駆動することを示す。
我々はリーマン多様体上の点としての意味状態をモデル化し、誘導射影力学を解析する。
2つの結果が続く。
滑らかな勾配スタイルの更新と確率的雑音の更新はどちらも同じ位相的エンドポイントに収束し、収束時に経路独立性を確立する。
第2に、文脈依存度は情報内容を制御する: 原子(非依存)表現から完全に絡み合った(コンテキストバウンド)表現に移行すると、ノードのエントロピーは自由度として解釈され、限界内で消滅する。
この理論は情報理論量と微分幾何学構造を結びつけ、エージェントを共有意味文法に制約する不変のコンセンサスルールとして解釈を提案する。
RWKV-7 13B GGUFチェックポイント上の軽量なデータセットフリーベンチマークは、解析を補完し、ゼロハッシュ衝突を報告し、グリーディ復号時の平均0.50、確率復号時の0.531、最終ジャカルド・ツー・アンカー類似度値0.295と0.224を報告している。
関連論文リスト
- Riemannian Flow Matching for Disentangled Graph Domain Adaptation [51.98961391065951]
グラフドメイン適応(GDA)は典型的には、ユークリッド空間におけるグラフ埋め込みの整列に逆学習を使用する。
DisRFMは、埋め込みとフローベースのトランスポートを統一する幾何学的なGDAフレームワークである。
論文 参考訳(メタデータ) (2026-01-31T11:05:35Z) - ICON: Invariant Counterfactual Optimization with Neuro-Symbolic Priors for Text-Based Person Search [6.247167721048087]
テキストベースの人物検索は、視覚的知覚と言語理解を橋渡しする現実世界の監視においてユニークな価値を持っている。
事前学習モデルを利用した現在のパラダイムは、しばしば複雑なオープンワールドシナリオに効果的に転送できない。
本稿では,因果関係とトポロジ的前提を統合したフレームワークであるICONを提案する。
論文 参考訳(メタデータ) (2026-01-22T13:09:22Z) - A Foundational Theory of Quantitative Abstraction: Adjunctions, Duality, and Logic for Probabilistic Systems [2.362412515574206]
大規模あるいは連続的な状態空間は、正確に解析しやすくし、原理化された量的抽象を要求する。
この研究は、圏論、コレージュブラ、量論理、最適輸送を統合することで、そのような抽象の統一理論を発展させる。
論文 参考訳(メタデータ) (2025-10-22T10:16:24Z) - Pure Exploration via Frank-Wolfe Self-Play [9.025261095806309]
我々は、有限個の代替案から正しい仮説を効果的に同定することを目的として、構造化された多腕包帯の純粋な探索について研究する。
我々の分析は連続時間ステア(英語版)を通し、減衰するリャプノフ函数との微分包含は、失効する双対性ギャップと最適値への収束を示唆する。
論文 参考訳(メタデータ) (2025-09-24T08:55:21Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Federated Learning Resilient to Byzantine Attacks and Data Heterogeneity [59.17297282373628]
本稿では、データに対する悪意ある攻撃の文脈におけるグラディエント学習(FL)について述べる。
本稿では,収束解析と損失関数の中央値を用いた新しい平均ロバストアルゴリズム(RAGA)を提案する。
論文 参考訳(メタデータ) (2024-03-20T08:15:08Z) - STAR Loss: Reducing Semantic Ambiguity in Facial Landmark Detection [80.04000067312428]
本稿では,意味的あいまいさの特性を利用した自己適応型あいまいさ低減(STAR)の損失を提案する。
意味的あいまいさは異方性予測分布をもたらすことが分かり、予測分布を用いて意味的あいまいさを表現する。
また,分布の異常変化とモデルの初期収束を回避できる2種類の固有値制限法を提案する。
論文 参考訳(メタデータ) (2023-06-05T10:33:25Z) - Convergence of Adam Under Relaxed Assumptions [72.24779199744954]
我々は、アダムがより現実的な条件下で、$O(epsilon-4)$勾配複雑性で$epsilon$-定常点に収束することを示している。
また、Adamの分散還元版を$O(epsilon-3)$の加速勾配複雑性で提案する。
論文 参考訳(メタデータ) (2023-04-27T06:27:37Z) - The distribution of syntactic dependency distances [0.13812010983144798]
我々は,構文的依存距離の実際の分布のキャラクタリゼーションに寄与する。
ブレークポイント後に確率減衰が変化することを許容する2つの指数的状態を持つ新しいモデルを提案する。
文の長さやアノテーションのスタイルとは無関係に,20言語すべてにおいて,2段階のモデルが最も可能性の高いモデルであることが判明した。
論文 参考訳(メタデータ) (2022-11-26T17:31:25Z) - Gradient flows and randomised thresholding: sparse inversion and
classification [0.0]
スパースインバージョンと分類問題は、現代のデータサイエンスとイメージングにおいて至るところに存在している。
分類において、例えば、データの忠実度項と非滑らかなギンズバーグ-ランダウエネルギーの和を考える。
標準(サブ)勾配降下法はそのような問題にアプローチする際に非効率であることが示されている。
論文 参考訳(メタデータ) (2022-03-22T09:21:14Z) - Neuro-Symbolic Entropy Regularization [78.16196949641079]
構造化予測では、目的は構造化されたオブジェクトをエンコードする多くの出力変数を共同で予測することである。
エントロピー正則化(Entropy regularization)という1つのアプローチは、決定境界が低確率領域にあるべきであることを示唆している。
我々は、モデルが有効対象を確実に予測することを奨励する損失、ニューロシンボリックエントロピー正規化を提案する。
論文 参考訳(メタデータ) (2022-01-25T06:23:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。