論文の概要: Accurate Network Traffic Matrix Prediction via LEAD: a Large Language Model-Enhanced Adapter-Based Conditional Diffusion Model
- arxiv url: http://arxiv.org/abs/2601.21437v2
- Date: Mon, 02 Feb 2026 16:13:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:32.84245
- Title: Accurate Network Traffic Matrix Prediction via LEAD: a Large Language Model-Enhanced Adapter-Based Conditional Diffusion Model
- Title(参考訳): LEADによる高精度ネットワークトラフィック行列予測:大規模言語モデルによる適応型条件付き拡散モデル
- Authors: Yu Sun, Yaqiong Liu, Nan Cheng, Jiayuan Li, Zihan Jia, Xialin Du, Mugen Peng,
- Abstract要約: 本稿では,交通行列をRGB画像に変換する条件拡散モデルLEADを提案する。
また,拡散モデルを誘導し,複雑な動的ネットワークトラフィックを生成するDual-Conditioning Strategyを提案する。
AbileneとGEANTデータセットの実験では、LEADがすべてのベースラインを上回っていることが示されている。
- 参考スコア(独自算出の注目度): 41.23125529149133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driven by the evolution toward 6G and AI-native edge intelligence, network operations increasingly require predictive and risk-aware adaptation under stringent computation and latency constraints. Network Traffic Matrix (TM), which characterizes flow volumes between nodes, is a fundamental signal for proactive traffic engineering. However, accurate TM forecasting remains challenging due to the stochastic, non-linear, and bursty nature of network dynamics. Existing discriminative models often suffer from over-smoothing and provide limited uncertainty awareness, leading to poor fidelity under extreme bursts. To address these limitations, we propose LEAD, a Large Language Model (LLM)-Enhanced Adapter-based conditional Diffusion model. First, LEAD adopts a "Traffic-to-Image" paradigm to transform traffic matrices into RGB images, enabling global dependency modeling via vision backbones. Then, we design a "Frozen LLM with Trainable Adapter" model, which efficiently captures temporal semantics with limited computational cost. Moreover, we propose a Dual-Conditioning Strategy to precisely guide a diffusion model to generate complex, dynamic network traffic matrices. Experiments on the Abilene and GEANT datasets demonstrate that LEAD outperforms all baselines. On the Abilene dataset, LEAD attains a remarkable 45.2% reduction in RMSE against the best baseline, with the error margin rising only marginally from 0.1098 at one-step to 0.1134 at 20-step predictions. Meanwhile, on the GEANT dataset, LEAD achieves a 0.0258 RMSE at 20-step prediction horizon which is 27.3% lower than the best baseline.
- Abstract(参考訳): 6GやAIネイティブなエッジインテリジェンスへの進化によって、ネットワーク操作では、厳密な計算とレイテンシ制約の下で予測とリスク認識の適応がますます求められている。
ノード間のフローボリュームを特徴付けるネットワークトラフィックマトリックス(TM)は、アクティブなトラフィックエンジニアリングの基本信号である。
しかし、ネットワーク力学の確率的、非線形、バースト的な性質のため、正確なTM予測は依然として困難である。
既存の差別的モデルは、しばしば過度にスムースに悩まされ、不確実性を限定し、極端なバーストの下で不確実性を引き起こす。
これらの制約に対処するため,Large Language Model (LLM) を用いた適応型条件付き拡散モデル LEAD を提案する。
まず、LEADはトラフィック行列をRGBイメージに変換するために"Traffic-to-Image"パラダイムを採用し、視覚バックボーンによるグローバルな依存性モデリングを可能にする。
そこで我々は,時間的セマンティクスを計算コストの制限で効率的にキャプチャする「Frozen LLM with Trainable Adapter」モデルを設計した。
さらに,拡散モデルから複雑な動的ネットワークトラフィック行列を生成するためのDual-Conditioning Strategyを提案する。
AbileneとGEANTデータセットの実験では、LEADがすべてのベースラインを上回っていることが示されている。
アビリーンデータセットにおいて、LEADはRMSEを最高のベースラインに対して45.2%削減し、エラーマージンは1ステップで0.1098から20ステップ予測で0.1134までわずかに上昇した。
一方、GEANTデータセットでは、LEADは最高のベースラインよりも27.3%低い20ステップの予測地平線で0.0258 RMSEを達成する。
関連論文リスト
- ResAD: Normalized Residual Trajectory Modeling for End-to-End Autonomous Driving [64.42138266293202]
ResADは正規化された残留軌道モデリングフレームワークである。
学習タスクを再編成し、慣性参照からの残留偏差を予測する。
NAVSIMベンチマークでは、ResADはバニラ拡散ポリシーを用いて最先端のPDMS 88.6を達成している。
論文 参考訳(メタデータ) (2025-10-09T17:59:36Z) - TGLF-SINN: Deep Learning Surrogate Model for Accelerating Turbulent Transport Modeling in Fusion [18.028061388104963]
我々は,3つの重要なイノベーションを持つtextbfTGLF-SINN (Spectra-Informed Neural Network) を提案する。
我々の手法は、トレーニングデータを大幅に減らし、優れたパフォーマンスを実現する。
下流フラックスマッチングアプリケーションでは、NNサロゲートがTGLFの45倍のスピードアップを提供しながら、同等の精度を維持しています。
論文 参考訳(メタデータ) (2025-09-07T09:36:51Z) - A Lightweight Deep Learning Model for Automatic Modulation Classification using Dual Path Deep Residual Shrinkage Network [0.0]
自動変調分類(AMC)はスペクトル効率を高める上で重要な役割を果たしている。
低複雑性と高い分類精度のバランスをとる軽量AMCモデルの必要性が高まっている。
本稿では,資源制約エッジデバイスに最適化された低複雑さ,軽量深層学習(DL)AMCモデルを提案する。
論文 参考訳(メタデータ) (2025-07-07T00:37:54Z) - Direct Discriminative Optimization: Your Likelihood-Based Visual Generative Model is Secretly a GAN Discriminator [38.883123034958935]
我々は,確率に基づく生成学習とGAN型識別を統合した統合フレームワークとして,直接識別最適化(DDO)を提案する。
我々の重要な洞察は、学習可能な対象モデルと固定参照モデルとの確率比を用いて、識別器を暗黙的にパラメータ化することである。
GANとは異なり、このパラメータ化はジェネレータと識別器ネットワークの共同トレーニングの必要性を排除し、十分に訓練されたモデルの完全なポテンシャルへの直接的、効率的、効果的な微調整を可能にする。
論文 参考訳(メタデータ) (2025-03-03T02:06:22Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。