論文の概要: Pay Attention Later: From Vector Space Diffusion to Linearithmic Spectral Phase-Locking
- arxiv url: http://arxiv.org/abs/2512.01208v1
- Date: Mon, 01 Dec 2025 02:46:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.647377
- Title: Pay Attention Later: From Vector Space Diffusion to Linearithmic Spectral Phase-Locking
- Title(参考訳): その後の支払い:ベクトル空間拡散から線形スペクトル位相同期へ
- Authors: Alper Yıldırım, İbrahim Yücedağ,
- Abstract要約: スタンダードトランスフォーマーは「セマンティックアライメント税」に苦しむ
位相共鳴インテリジェントスペクトルモデル(PRISM)を導入する。
PRISMは複素領域(Cd)における共振周波数としてのセマンティックアイデンティティを符号化し、二次自己アテンションをリニアリトミック O(N log N) Gated Harmonic Convolutions に置き換える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard Transformers suffer from a "Semantic Alignment Tax", a prohibitive optimization cost required to organize a chaotic initialization into a coherent geometric map via local gradient diffusion. We hypothesize that this reliance on diffusive learning creates "Catastrophic Rigidity", rendering models unable to adapt to novel concepts without destroying their pre-trained reasoning capabilities. To isolate this phenomenon, we introduce Iterative Semantic Map Refinement (ISMR), a diagnostic protocol revealing that alignment is a fixed geometric barrier that scaling cannot solve; a 20-layer model overcomes this barrier no faster than a 1-layer model. We introduce the Phase-Resonant Intelligent Spectral Model (PRISM). PRISM encodes semantic identity as resonant frequencies in the complex domain (C^d) and replaces quadratic self-attention with linearithmic O(N log N) Gated Harmonic Convolutions. We validate PRISM on the WMT14 translation task. While the Standard Transformer maintains a slight edge in general competence on static benchmarks (23.88 vs 21.40 BLEU), it fails the "Plasticity-Stability" stress test completely. When injected with novel concepts, the Transformer suffers Catastrophic Forgetting, degrading by -10.55 BLEU points while achieving only 60% acquisition. In contrast, PRISM demonstrates Lossless Plasticity, achieving 96% 5-shot acquisition with negligible degradation (-0.84 BLEU). These results suggest that harmonic representations effectively decouple memory from reasoning, offering a structural solution to the plasticity-stability dilemma in real-time knowledge adaptation.
- Abstract(参考訳): 標準変換器は「セマンティックアライメント税」(Semantic Alignment Tax)に苦しむが、これは局所勾配拡散によるコヒーレント幾何写像へのカオス初期化を組織するために必要な、禁止的な最適化コストである。
我々は、この拡散学習への依存が「破滅的剛性」を生み出すと仮定し、事前学習された推論能力を破壊することなく、新しい概念に適応できないモデルを提示する。
この現象を分離するために、Iterative Semantic Map Refinement (ISMR) を導入する。これは、アライメントがスケーリングが解決できない固定された幾何学的障壁であることを示す診断プロトコルであり、1層モデルよりも高速にこの障壁を克服する20層モデルである。
本稿では、位相共鳴インテリジェントスペクトルモデル(PRISM)を紹介する。
PRISMは複素領域(C^d)における共振周波数としてのセマンティックアイデンティティを符号化し、二次自己アテンションを線形交叉性 O(N log N) Gated Harmonic Convolutions に置き換える。
WMT14翻訳タスク上でPRISMを検証する。
Standard Transformerは、静的ベンチマーク(23.88対21.40 BLEU)の一般的な性能をわずかに維持するが、"Plasticity-Stability"ストレステストを完全に失敗する。
新たな概念を注入すると、トランスフォーマーは破滅的なフォーミングに悩まされ、10.55 BLEUポイントで劣化し、60%の獲得しか達成できなかった。
対照的に、PRISMはロスレス塑性を示し、無視可能な劣化(-0.84 BLEU)で96%の5ショットの獲得を達成した。
これらの結果から, 実時間知識適応における可塑性安定性ジレンマに対する構造的解法として, 記憶と推論を効果的に分離することが示唆された。
関連論文リスト
- Directional Optimization Asymmetry in Transformers: A Synthetic Stress Test [0.15229257192293197]
変換子は理論的には逆不変であり、その関数クラスは右から左への写像よりも左から右への写像を好まない。
LLMの時間的非対称性に関する最近の研究は、実世界のコーパスが独自の時間的矢印を持っていることを示唆している。
方向性の障害は、言語統計学によるものなのか、あるいはアーキテクチャ自体によるものなのか?
論文 参考訳(メタデータ) (2025-11-25T07:03:20Z) - Two failure modes of deep transformers and how to avoid them: a unified theory of signal propagation at initialisation [8.973965016201822]
ニューラルネットワークの適切な初期化を見つけることは、スムーズなトレーニングと優れたパフォーマンスを保証するために不可欠である。
トランスフォーマーでは、間違った初期化は、ランク崩壊、すべてのトークンが同様の表現に崩壊するランク崩壊、エントロピー崩壊、高度に集中した注意スコアが不安定になる2つの失敗モードの1つにつながる可能性がある。
ここでは、自己アテンション、層正規化、スキップ接続、勾配を有する深層変圧器による信号伝搬の解析理論を提案する。
論文 参考訳(メタデータ) (2025-05-30T08:18:23Z) - Rao-Blackwell Gradient Estimators for Equivariant Denoising Diffusion [55.95767828747407]
分子やタンパク質の生成のようなドメインでは、物理系はモデルにとって重要な固有の対称性を示す。
学習のばらつきを低減し、確率的に低い分散勾配推定器を提供するフレームワークを提案する。
また,軌道拡散法(Orbit Diffusion)と呼ばれる手法を用いて,損失とサンプリングの手順を取り入れた推定器の実用的実装を提案する。
論文 参考訳(メタデータ) (2025-02-14T03:26:57Z) - Visual Prompt Tuning in Null Space for Continual Learning [51.96411454304625]
既存のプロンプトチューニング手法は、継続学習(CL)における印象的な性能を示す。
本稿では,従来のタスクの特徴に代表される部分空間に直交する方向のプロンプトを調整し,各タスクを学習することを目的とする。
実際には、即時勾配予測を実装するために、実効的なヌル空間に基づく近似解が提案されている。
論文 参考訳(メタデータ) (2024-06-09T05:57:40Z) - Stabilizing Transformer Training by Preventing Attention Entropy
Collapse [56.45313891694746]
本研究は,トランスフォーマーのトレーニングダイナミクスについて,注目層の進化について検討する。
我々は、$sigma$Reparamが注意層におけるエントロピー崩壊を防ぎ、より安定したトレーニングを促進することを示す。
画像分類、画像自己教師型学習、機械翻訳、音声認識、言語モデリングタスクについて、$sigma$Reparamで実験を行った。
論文 参考訳(メタデータ) (2023-03-11T03:30:47Z) - Pruning Redundant Mappings in Transformer Models via Spectral-Normalized
Identity Prior [54.629850694790036]
スペクトル正規化アイデンティティ事前 (SNIP) は、トランスフォーマーモデルにおける残余モジュール全体をアイデンティティマッピングに向けてペナライズする構造化プルーニング手法である。
5つのGLUEベンチマークタスクでBERTを用いて実験を行い、SNIPが同等の性能を維持しながら効率的な刈り取り結果が得られることを示した。
論文 参考訳(メタデータ) (2020-10-05T05:40:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。