論文の概要: Cascaded Transformer for Robust and Scalable SLA Decomposition via Amortized Optimization
- arxiv url: http://arxiv.org/abs/2601.11859v1
- Date: Sat, 17 Jan 2026 01:01:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.343638
- Title: Cascaded Transformer for Robust and Scalable SLA Decomposition via Amortized Optimization
- Title(参考訳): Amortized OptimizationによるロバストおよびスケーラブルSLA分解のためのカスケードトランス
- Authors: Cyril Shih-Huan Hsu,
- Abstract要約: 6Gネットワークはネットワークスライシングに頼り、共有物理インフラ上でのエンド・ツー・エンド(E2E)論理ネットワークを提供する傾向にある。
現在のソリューションは、計算集約的で反復的な最適化プロセスを通じて処理し、相当なレイテンシと複雑さを引き起こす。
高速かつ最適化不要なSLA分解のために設計されたカスケードトランスフォーマーアーキテクチャであるCasformerを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The evolution toward 6G networks increasingly relies on network slicing to provide tailored, End-to-End (E2E) logical networks over shared physical infrastructures. A critical challenge is effectively decomposing E2E Service Level Agreements (SLAs) into domain-specific SLAs, which current solutions handle through computationally intensive, iterative optimization processes that incur substantial latency and complexity. To address this, we introduce Casformer, a cascaded Transformer architecture designed for fast, optimization-free SLA decomposition. Casformer leverages historical domain feedback encoded through domain-specific Transformer encoders in its first layer, and integrates cross-domain dependencies using a Transformer-based aggregator in its second layer. The model is trained under a learning paradigm inspired by Domain-Informed Neural Networks (DINNs), incorporating risk-informed modeling and amortized optimization to learn a stable, forward-only SLA decomposition policy. Extensive evaluations demonstrate that Casformer achieves improved SLA decomposition quality against state-of-the-art optimization-based frameworks, while exhibiting enhanced scalability and robustness under volatile and noisy network conditions. In addition, its forward-only design reduces runtime complexity and simplifies deployment and maintenance. These insights reveal the potential of combining amortized optimization with Transformer-based sequence modeling to advance network automation, providing a scalable and efficient solution suitable for real-time SLA management in advanced 5G-and-beyond network environments.
- Abstract(参考訳): 6Gネットワークへの進化は、ネットワークスライシングに頼り、共有物理インフラ上でのエンド・ツー・エンド(E2E)論理ネットワークを提供する傾向にある。
重要な課題は、E2Eサービスレベルアグリーメント(SLA)をドメイン固有のSLAに効果的に分解することである。
そこで我々はCasformerを紹介した。Casformerは高速で最適化不要なSLA分解のために設計されたカスケードトランスフォーマーアーキテクチャである。
Casformerは第1レイヤでドメイン固有のTransformerエンコーダを通じてエンコードされた歴史的なドメインフィードバックを活用し、第2レイヤでTransformerベースのアグリゲータを使用して、ドメイン間の依存関係を統合する。
このモデルは、ドメインインフォームドニューラルネットワーク(DINN)にインスパイアされた学習パラダイムの下でトレーニングされ、リスクインフォームドモデリングとアモータイズされた最適化を取り入れて、安定した前方のみのSLA分解ポリシーを学ぶ。
Casformerは、不安定でノイズの多いネットワーク条件下で拡張されたスケーラビリティと堅牢性を示しながら、最先端の最適化ベースのフレームワークに対してSLA分解品質の向上を実現している。
さらに、フォワードオンリーの設計により、ランタイムの複雑さが軽減され、デプロイとメンテナンスが簡単になる。
これらの知見は、トランスフォーマーベースのシーケンスモデリングとアモータイズされた最適化を組み合わせることで、ネットワーク自動化を進歩させ、高度な5Gおよびそれ以上のネットワーク環境において、リアルタイムSLA管理に適したスケーラブルで効率的なソリューションを提供する可能性を明らかにしている。
関連論文リスト
- Rethinking Autoregressive Models for Lossless Image Compression via Hierarchical Parallelism and Progressive Adaptation [75.58269386927076]
自己回帰(AR)モデルは、しばしば計算コストの禁止のために非現実的に除外される。
この研究は、階層的並列性とプログレッシブ適応に基づくフレームワークを導入して、このパラダイムを再考する。
各種データセット(自然,衛星,医療)の実験により,本手法が新たな最先端圧縮を実現することを確認した。
論文 参考訳(メタデータ) (2025-11-14T06:27:58Z) - Revisiting the Privacy Risks of Split Inference: A GAN-Based Data Reconstruction Attack via Progressive Feature Optimization [49.32786615205064]
Split Inference (SI)は、エッジデバイスとクラウドの間の計算を分割することで、レイテンシを低減し、ユーザのプライバシを保護する。
データ再構成攻撃(DRA)の最近の進歩は、SIで交換された中間的特徴を利用して機密入力データを復元できることを明らかにしている。
既存のDRAは一般的に浅いモデルにのみ有効であり、セマンティックな事前を十分に活用できない。
本稿では,プログレッシブ・フィーチャー・オプティマイゼーション(PFO)を用いた新しいGANベースのDRAフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-28T10:00:39Z) - Transformer-Empowered Actor-Critic Reinforcement Learning for Sequence-Aware Service Function Chain Partitioning [1.9120720496423733]
本稿では,シーケンシャル・アウェア・SFCパーティショニングに特化して設計されたトランスフォーマーを利用したアクタ・クリティカル・フレームワークを提案する。
提案手法は,VNF間の複雑な相互依存性を効果的にモデル化し,協調的および並列化された意思決定プロセスを容易にする。
論文 参考訳(メタデータ) (2025-04-26T12:18:57Z) - LADs: Leveraging LLMs for AI-Driven DevOps [3.240228178267042]
LADは、どの条件の下で最適化が機能するかを詳細に分析することで、構成最適化の原則化されたアプローチである。
Retrieval-Augmented Generation、Few-Shot Learning、Chain-of-Thought、Feedback-Based Prompt Chainingを活用することで、LADは正確な構成を生成し、デプロイメント障害から反復的に洗練されたシステム設定を学ぶ。
我々の発見は、パフォーマンス、コスト、スケーラビリティのトレードオフに関する重要な洞察を明らかにし、実践者が異なるデプロイメントシナリオに対して適切な戦略を決定するのに役立つ。
論文 参考訳(メタデータ) (2025-02-28T08:12:08Z) - Unifying Dimensions: A Linear Adaptive Approach to Lightweight Image Super-Resolution [6.857919231112562]
ウィンドウベーストランスは超高解像度タスクにおいて優れた性能を示した。
畳み込みニューラルネットワークよりも計算複雑性と推論レイテンシが高い。
線形適応ミキサーネットワーク(LAMNet)という,畳み込みに基づくトランスフォーマーフレームワークを構築する。
論文 参考訳(メタデータ) (2024-09-26T07:24:09Z) - Online SLA Decomposition: Enabling Real-Time Adaptation to Evolving Network Systems [0.0]
本研究では,実世界のシステムの動的性質を考察し,その動的性に対処するオンライン学習分解フレームワークを提案する。
最新のフィードバックに基づいてリスクモデルを継続的に更新するフレームワークを提案する。
解析モデルに基づくシミュレータに関する実証研究により,提案手法が最先端の静的アプローチより優れていることを示す。
論文 参考訳(メタデータ) (2024-08-16T18:34:11Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Robust Deep Compressive Sensing with Recurrent-Residual Structural
Constraints [0.0]
既存のディープラーニング(CS)手法は、適応的なオンライン最適化を無視するか、コストのかかる反復的な再構築に依存している。
この研究は、R$2$CS-NETと呼ばれる再帰的構造制約を持つ新しいイメージCSフレームワークを探索する。
適応型オンライン最適化を効率的にブリッジする最初のディープCSフレームワークとして、R$2$CS-NETは、オンライン最適化の堅牢性とディープラーニング手法の効率性と非線形能力を統合する。
論文 参考訳(メタデータ) (2022-07-15T05:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。