論文の概要: Chat-Driven Optimal Management for Virtual Network Services
- arxiv url: http://arxiv.org/abs/2512.24614v1
- Date: Wed, 31 Dec 2025 04:14:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.565189
- Title: Chat-Driven Optimal Management for Virtual Network Services
- Title(参考訳): 仮想ネットワークサービスのためのチャット駆動最適管理
- Authors: Yuya Miyaoka, Masaki Inoue, Kengo Urata, Shigeaki Harada,
- Abstract要約: 本稿では,自然言語処理(NLP)と最適化に基づく仮想ネットワークアロケーションを統合したチャット駆動型ネットワーク管理フレームワークを提案する。
NLPを用いて自然言語プロンプトからインテントを抽出するインタープリタからなる2段階フレームワークを開発した。
特に、Interpreterは、ユーザーチャットを更新方向、すなわちCPU要求やレイテンシ境界などのパラメータを増加、減少、維持するかどうかに変換する。
- 参考スコア(独自算出の注目度): 1.4466130959565506
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper proposes a chat-driven network management framework that integrates natural language processing (NLP) with optimization-based virtual network allocation, enabling intuitive and reliable reconfiguration of virtual network services. Conventional intent-based networking (IBN) methods depend on statistical language models to interpret user intent but cannot guarantee the feasibility of generated configurations. To overcome this, we develop a two-stage framework consisting of an Interpreter, which extracts intent from natural language prompts using NLP, and an Optimizer, which computes feasible virtual machine (VM) placement and routing via an integer linear programming. In particular, the Interpreter translates user chats into update directions, i.e., whether to increase, decrease, or maintain parameters such as CPU demand and latency bounds, thereby enabling iterative refinement of the network configuration. In this paper, two intent extractors, which are a Sentence-BERT model with support vector machine (SVM) classifiers and a large language model (LLM), are introduced. Experiments in single-user and multi-user settings show that the framework dynamically updates VM placement and routing while preserving feasibility. The LLM-based extractor achieves higher accuracy with fewer labeled samples, whereas the Sentence-BERT with SVM classifiers provides significantly lower latency suitable for real-time operation. These results underscore the effectiveness of combining NLP-driven intent extraction with optimization-based allocation for safe, interpretable, and user-friendly virtual network management.
- Abstract(参考訳): 本稿では、自然言語処理(NLP)と最適化ベースの仮想ネットワークアロケーションを統合し、直感的で信頼性の高い仮想ネットワークサービスの再構成を可能にするチャット駆動型ネットワーク管理フレームワークを提案する。
従来のインテントベースのネットワーク(IBN)手法は、ユーザの意図を解釈するために統計言語モデルに依存するが、生成された構成の実現性を保証することはできない。
そこで我々は,NLPを用いて自然言語プロンプトからインテントを抽出するインタープリタと,整数線形プログラミングによる仮想機械(VM)配置とルーティングを演算するオプティマイザからなる2段階のフレームワークを開発する。
特に、Interpreterは、ユーザーチャットを更新方向、すなわちCPU要求やレイテンシ境界などのパラメータを増加、減少、維持するかどうかに変換することで、ネットワーク構成の反復的な改善を可能にする。
本稿では,サポートベクトルマシン(SVM)と大規模言語モデル(LLM)を備えたセンテンス-BERTモデルである2つのインテント抽出手法を提案する。
シングルユーザとマルチユーザ設定の実験では、実行可能性を維持しながら、フレームワークがVMの配置とルーティングを動的に更新することを示している。
LLMベースの抽出器はラベル付きサンプルが少ないほど精度が向上する一方、SVM分類器付きSentence-BERTはリアルタイム操作に適した遅延を著しく低減する。
これらの結果は,安全性,解釈性,ユーザフレンドリな仮想ネットワーク管理のために,NLP駆動のインテント抽出と最適化に基づくアロケーションを組み合わせることの有効性を裏付けるものである。
関連論文リスト
- An LLVM-Based Optimization Pipeline for SPDZ [0.0]
我々はSPDZプロトコルのための概念実証LLVMベースの最適化パイプラインを実装した。
フロントエンドは軽量なプライバシアノテーションを備えたCのサブセットを受け入れ、LLVM IRに格下げします。
我々のバックエンドは、最適化されたIR上でデータフローと制御フローの分析を行い、ノンブロッキングランタイムスケジューラを駆動します。
論文 参考訳(メタデータ) (2025-12-11T20:53:35Z) - AVERY: Adaptive VLM Split Computing through Embodied Self-Awareness for Efficient Disaster Response Systems [6.294240680169978]
災害時の無人航空機(UAV)は、CNNが提供できない複雑なクエリー可能な知性を必要とする。
本稿では,適応型分割計算によるVLMデプロイメントを実現するフレームワークであるAVERYを紹介する。
論文 参考訳(メタデータ) (2025-11-22T18:42:04Z) - Range Asymmetric Numeral Systems-Based Lightweight Intermediate Feature Compression for Split Computing of Deep Neural Networks [5.186026342830856]
Splitコンピューティングは、リソース制約のあるエッジデバイスとクラウドサーバの間で、ディープニューラルネットワーク推論を分散する。
本研究では、非対称整数量子化とスパーステンソル表現を併用したレンジ非対称数値システム(rANS)の符号化を利用して、伝送オーバーヘッドを劇的に低減する新しい軽量圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T12:33:59Z) - WDMoE: Wireless Distributed Mixture of Experts for Large Language Models [68.45482959423323]
大規模言語モデル(LLM)は様々な自然言語処理タスクにおいて大きな成功を収めた。
本稿では,無線ネットワーク上での基地局(BS)およびモバイルデバイスにおけるエッジサーバ間のLLMの協調展開を実現するために,無線分散Mixture of Experts(WDMoE)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-11-11T02:48:00Z) - DeGMix: Efficient Multi-Task Dense Prediction with Deformable and Gating Mixer [129.61363098633782]
変形およびゲーティングミキサー(DeGMix)を用いた効率的なマルチタスク密度予測法を提案する。
提案したDeGMixはGFLOPを少なくし、現在のTransformerベースの競合モデルとCNNベースの競合モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2023-08-10T17:37:49Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Efficient Sparsely Activated Transformers [0.34410212782758054]
トランスフォーマーベースのニューラルネットワークは、多くの機械学習ドメインで最先端のタスクパフォーマンスを実現している。
最近の研究は、これらのネットワークへの動的挙動の混合層(mixed-of-expert layer)の形での統合について検討している。
我々は,既存のTransformerベースのネットワークとユーザ定義のレイテンシターゲットを取り入れたPLANERという新しいシステムを導入する。
論文 参考訳(メタデータ) (2022-08-31T00:44:27Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。