論文の概要: Enhancing Network Management Using Code Generated by Large Language
Models
- arxiv url: http://arxiv.org/abs/2308.06261v1
- Date: Fri, 11 Aug 2023 17:49:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 13:16:11.344971
- Title: Enhancing Network Management Using Code Generated by Large Language
Models
- Title(参考訳): 大規模言語モデルによるコード生成によるネットワーク管理の強化
- Authors: Sathiya Kumaran Mani, Yajie Zhou, Kevin Hsieh, Santiago Segarra,
Ranveer Chandra, and Srikanth Kandula
- Abstract要約: 本稿では,大規模言語モデル(LLM)を用いて自然言語クエリからタスク固有コードを生成することにより,自然言語ベースのネットワーク管理エクスペリエンスを促進する新しいアプローチを提案する。
この方法は、ネットワークオペレーターが生成されたコードを検査できるようにすることで、説明可能性、スケーラビリティ、プライバシの課題に取り組む。
ベンチマークアプリケーションを用いてプロトタイプシステムを設計,評価し,高い精度,コスト効率,さらなる拡張の可能性を示す。
- 参考スコア(独自算出の注目度): 15.557254786007325
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Analyzing network topologies and communication graphs plays a crucial role in
contemporary network management. However, the absence of a cohesive approach
leads to a challenging learning curve, heightened errors, and inefficiencies.
In this paper, we introduce a novel approach to facilitate a
natural-language-based network management experience, utilizing large language
models (LLMs) to generate task-specific code from natural language queries.
This method tackles the challenges of explainability, scalability, and privacy
by allowing network operators to inspect the generated code, eliminating the
need to share network data with LLMs, and concentrating on application-specific
requests combined with general program synthesis techniques. We design and
evaluate a prototype system using benchmark applications, showcasing high
accuracy, cost-effectiveness, and the potential for further enhancements using
complementary program synthesis techniques.
- Abstract(参考訳): ネットワークトポロジと通信グラフの分析は、現代のネットワーク管理において重要な役割を果たす。
しかし、結束的なアプローチがないことは、困難な学習曲線、エラーの増大、非効率につながる。
本稿では,大規模言語モデル(LLM)を用いて自然言語クエリからタスク固有コードを生成することにより,自然言語ベースのネットワーク管理エクスペリエンスを促進する新しいアプローチを提案する。
この方法は、ネットワークオペレーターが生成されたコードを検査し、LLMとネットワークデータを共有する必要をなくし、一般的なプログラム合成技術と組み合わせてアプリケーション固有の要求に集中することにより、説明可能性、スケーラビリティ、プライバシの課題に取り組む。
ベンチマークアプリケーションを用いたプロトタイプシステムの設計と評価を行い, プログラム合成手法を用いて, 精度, コスト効率, さらなる拡張の可能性を示した。
関連論文リスト
- Large Language Models for Knowledge-Free Network Management: Feasibility Study and Opportunities [36.70339455624253]
本稿では,大規模言語モデル(LLM)と呼ばれる基礎モデルの力による,知識のない新しいネットワーク管理パラダイムについて述べる。
LLMは、最小限のシステム情報を含む入力プロンプトから重要なコンテキストを理解することができ、完全に新しいタスクであっても顕著な推論性能を提供する。
計算結果は,知識のないLLMが既存の知識ベース最適化アルゴリズムに匹敵する性能を達成できることを検証した。
論文 参考訳(メタデータ) (2024-10-06T07:42:23Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - NetLLM: Adapting Large Language Models for Networking [36.61572542761661]
我々は,ネットワーク問題を解決するために低努力でLLMの強力な能力を活用するためのコヒーレントな設計を提供する最初のフレームワークであるNetLLMを紹介する。
具体的には、NetLLMはLLMにネットワーク上のマルチモーダルデータを効果的に処理し、タスク固有の回答を効率的に生成する権限を与える。
論文 参考訳(メタデータ) (2024-02-04T04:21:34Z) - COOL: A Constraint Object-Oriented Logic Programming Language and its
Neural-Symbolic Compilation System [0.0]
我々は論理的推論とニューラルネットワーク技術をシームレスに組み合わせたCOOLプログラミング言語を紹介した。
COOLはデータ収集を自律的に処理するために設計されており、ユーザから供給される初期データの必要性を軽減している。
ユーザプロンプトをコーディングプロセスに組み込んで、トレーニング中のリスクを低減し、ライフサイクルを通じてモデル間のインタラクションを強化する。
論文 参考訳(メタデータ) (2023-11-07T06:29:59Z) - netFound: Foundation Model for Network Security [11.38388749887112]
本稿では,新しいトランスフォーマーベースネットワーク基盤モデルであるnetFoundを紹介する。
我々は、事前学習のために、豊富なラベルのないネットワークテレメトリデータに自己教師付き学習技術を採用する。
実運用環境では,netFoundが隠れたネットワークコンテキストを効果的にキャプチャすることを示す。
論文 参考訳(メタデータ) (2023-10-25T22:04:57Z) - Learning State-Augmented Policies for Information Routing in
Communication Networks [92.59624401684083]
我々は,グラフニューラルネットワーク(GNN)アーキテクチャを用いて,ソースノードの集約情報を最大化する,新たなステート拡張(SA)戦略を開発した。
教師なし学習手法を利用して、GNNアーキテクチャの出力を最適情報ルーティング戦略に変換する。
実験では,実時間ネットワークトポロジの評価を行い,アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2023-09-30T04:34:25Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - A Tutorial on Ultra-Reliable and Low-Latency Communications in 6G:
Integrating Domain Knowledge into Deep Learning [115.75967665222635]
超信頼性・低レイテンシ通信(URLLC)は、様々な新しいミッションクリティカルなアプリケーションの開発の中心となる。
ディープラーニングアルゴリズムは、将来の6GネットワークでURLLCを実現する技術を開発するための有望な方法と考えられている。
このチュートリアルでは、URLLCのさまざまなディープラーニングアルゴリズムにドメイン知識を組み込む方法について説明する。
論文 参考訳(メタデータ) (2020-09-13T14:53:01Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z) - Synthetic Datasets for Neural Program Synthesis [66.20924952964117]
本稿では,プログラムと仕様の両方で合成データ分布のバイアスを制御し,評価するための新しい手法を提案する。
そこで我々は,Karel DSLと小さなCalculator DSLを用いて,これらの分布上でのディープネットワークのトレーニングにより,分散一般化性能が向上することが実証された。
論文 参考訳(メタデータ) (2019-12-27T21:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。