論文の概要: LiLM-RDB-SFC: Lightweight Language Model with Relational Database-Guided DRL for Optimized SFC Provisioning
- arxiv url: http://arxiv.org/abs/2507.10903v1
- Date: Tue, 15 Jul 2025 01:42:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.94677
- Title: LiLM-RDB-SFC: Lightweight Language Model with Relational Database-Guided DRL for Optimized SFC Provisioning
- Title(参考訳): LiLM-RDB-SFC:Lylational Database-Guided DRLによるSFC最適化のための軽量言語モデル
- Authors: Parisa Fard Moshiri, Xinyu Zhu, Poonam Lohan, Burak Kantarci, Emil Janulewicz,
- Abstract要約: LiLM-RDB-SFC は、Language Model (LiLM) と Database (RDB) を組み合わせて、ネットワーク状態クエリに応答する新しいアプローチである。
提案手法は、双方向および自動回帰変換器(BART)とFLAN-T5(FLAN-T5)の2つのLiLMを利用する。
その結果、FLAN-T5は試験損失が0.00161(0.00734)、精度が94.79%(80.2%)、処理時間が2h2min(38min)でBARTより優れていた。
- 参考スコア(独自算出の注目度): 9.511939514075424
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Effective management of Service Function Chains (SFCs) and optimal Virtual Network Function (VNF) placement are critical challenges in modern Software-Defined Networking (SDN) and Network Function Virtualization (NFV) environments. Although Deep Reinforcement Learning (DRL) is widely adopted for dynamic network decision-making, its inherent dependency on structured data and fixed action rules often limits adaptability and responsiveness, particularly under unpredictable network conditions. This paper introduces LiLM-RDB-SFC, a novel approach combining Lightweight Language Model (LiLM) with Relational Database (RDB) to answer network state queries to guide DRL model for efficient SFC provisioning. Our proposed approach leverages two LiLMs, Bidirectional and Auto-Regressive Transformers (BART) and the Fine-tuned Language Net T5 (FLAN-T5), to interpret network data and support diverse query types related to SFC demands, data center resources, and VNF availability. Results demonstrate that FLAN-T5 outperforms BART with a lower test loss (0.00161 compared to 0.00734), higher accuracy (94.79% compared to 80.2%), and less processing time (2h 2min compared to 2h 38min). Moreover, when compared to the large language model SQLCoder, FLAN-T5 matches the accuracy of SQLCoder while cutting processing time by 96% (SQLCoder: 54 h 43 min; FLAN-T5: 2 h 2 min).
- Abstract(参考訳): サービス機能チェーン (SFC) と最適仮想ネットワーク関数 (VNF) の配置の効果的な管理は、現代の Software-Defined Networking (SDN) と Network Function Virtualization (NFV) 環境において重要な課題である。
動的ネットワーク決定にはDRL(Deep Reinforcement Learning)が広く採用されているが、構造化データや固定アクションルールに固有の依存は、適応性と応答性を制限していることが多い。
本稿では,軽量言語モデル(LiLM)とリレーショナルデータベース(RDB)を組み合わせた新しいアプローチであるLiLM-RDB-SFCについて紹介する。
提案手法では,BART(Bidirectional and Auto-Regressive Transformers)とFLAN-T5(Final-Tuned Language Net T5)という2つのLiLMを用いて,ネットワークデータを解釈し,SFC要求,データセンタリソース,VNF可用性に関連する多様なクエリタイプをサポートする。
その結果、FLAN-T5は試験損失の0.00161(0.00734)、精度の94.79%(80.2%)、処理時間2h2min(2h38min)でBARTを上回った。
さらに、大きな言語モデルであるSQLCoderと比較すると、FLAN-T5は処理時間を96%削減しながらSQLCoderの精度と一致している(SQLCoder:54 h 43 min; FLAN-T5:2 h 2 min)。
関連論文リスト
- Traversal Learning Coordination For Lossless And Efficient Distributed Learning [0.0]
トラバースラーニング(TL)は、人気のある分散学習(DL)パラダイムで発生する品質低下の問題に対処するために設計された新しいアプローチである。
TLは、モデルがフォワード伝搬(FP)中にノードを横切るユニークな戦略を採用し、オーケストレータ上で後方伝搬(BP)を行う。
論文 参考訳(メタデータ) (2025-04-10T05:48:57Z) - Integrating Language Models for Enhanced Network State Monitoring in DRL-Based SFC Provisioning [5.37102888813454]
本稿では,Deep Reinforcement Learning(DRL)とLanguage Models(LM)を統合し,ネットワーク管理を強化する。
DRLからLMに最終的なVNF割り当てを供給することにより、システムはSFC、DC、VNFに関連するクエリを処理および応答し、リソース利用、ボトルネック検出、将来の需要計画に関するリアルタイムな洞察を可能にする。
論文 参考訳(メタデータ) (2025-02-16T22:52:14Z) - LLM4DistReconfig: A Fine-tuned Large Language Model for Power Distribution Network Reconfiguration [1.3453966060917504]
DERの統合と顧客参加の増加により、配電ネットワークは進化している。
最適動作を維持し、損失を最小限に抑え、様々な負荷要求を満たすためには、頻繁なネットワーク再構成が必要である。
データ駆動の再構成は、不完全なネットワークデータに対する正確性、速度、堅牢性のために勢いを増している。
論文 参考訳(メタデータ) (2025-01-24T22:46:14Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - LoongServe: Efficiently Serving Long-Context Large Language Models with Elastic Sequence Parallelism [12.521026493432181]
既存の大規模言語モデル(LLM)は、異なるフェーズにおける可変長要求を効率的に提供できない。
本稿では,異なる要求と位相の分散に対応するために,新しい並列性パラダイムである弾性列並列性(ESP)を提案する。
LoongServeは、チャンクプレフィルと比較して最大スループットを最大3.85$times$、プリフィルデコードデアグリゲーションと比較して5.81$times$に改善する。
論文 参考訳(メタデータ) (2024-04-15T07:45:04Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - OFedQIT: Communication-Efficient Online Federated Learning via
Quantization and Intermittent Transmission [7.6058140480517356]
オンライン連合学習(OFL)は、分散ストリーミングデータから非線形関数(またはモデル)のシーケンスを協調的に学習する、有望なフレームワークである。
本稿では、量子化と断続伝送を用いた通信効率の高いOFLアルゴリズム(OFedQIT)を提案する。
分析の結果,OfedQITは優れた学習精度を維持しつつ,OfedAvgの欠点に対処できることがわかった。
論文 参考訳(メタデータ) (2022-05-13T07:46:43Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。