論文の概要: Understanding Network Behaviors through Natural Language Question-Answering
- arxiv url: http://arxiv.org/abs/2510.21894v1
- Date: Fri, 24 Oct 2025 08:54:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.692407
- Title: Understanding Network Behaviors through Natural Language Question-Answering
- Title(参考訳): 自然言語質問応答によるネットワーク行動の理解
- Authors: Mingzhe Xing, Chang Tian, Jianan Zhang, Lichen Pan, Peipei Liu, Zhaoteng Yan, Yinliang Yue,
- Abstract要約: 自然言語(NL)を用いたネットワーククエリのための新しいフレームワークであるNetMindを提案する。
本手法では,セマンティック・コヒーレンスを維持するために,ツリーベースの構成チャンキング戦略を導入する。
次に、ベンダー固有の設定を正規化するための中間表現として、統合されたファクトグラフを構築します。
- 参考スコア(独自算出の注目度): 11.90560159315518
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Modern large-scale networks introduce significant complexity in understanding network behaviors, increasing the risk of misconfiguration. Prior work proposed to understand network behaviors by mining network configurations, typically relying on domain-specific languages interfaced with formal models. While effective, they suffer from a steep learning curve and limited flexibility. In contrast, natural language (NL) offers a more accessible and interpretable interface, motivating recent research on NL-guided network behavior understanding. Recent advances in large language models (LLMs) further enhance this direction, leveraging their extensive prior knowledge of network concepts and strong reasoning capabilities. However, three key challenges remain: 1) numerous router devices with lengthy configuration files challenge LLM's long-context understanding ability; 2) heterogeneity across devices and protocols impedes scalability; and 3) complex network topologies and protocols demand advanced reasoning abilities beyond the current capabilities of LLMs. To tackle the above challenges, we propose NetMind, a novel framework for querying networks using NL. Our approach introduces a tree-based configuration chunking strategy to preserve semantic coherence while enabling efficient partitioning. We then construct a unified fact graph as an intermediate representation to normalize vendor-specific configurations. Finally, we design a hybrid imperative-declarative language to reduce the reasoning burden on LLMs and enhance precision. We contribute a benchmark consisting of NL question-answer pairs paired with network configurations. Experiments demonstrate that NetMind achieves accurate and scalable network behavior understanding, outperforming existing baselines.
- Abstract(参考訳): 現代の大規模ネットワークは、ネットワークの振る舞いを理解するのにかなりの複雑さを導入し、設定ミスのリスクを増大させている。
以前の研究では、ネットワーク構成をマイニングすることでネットワークの振る舞いを理解することを提案した。
効果はあるものの、学習曲線の急激さと柔軟性の制限に悩まされている。
対照的に、自然言語(NL)はよりアクセシブルで解釈可能なインタフェースを提供し、NL誘導ネットワークの行動理解に関する最近の研究を動機付けている。
大規模言語モデル(LLM)の最近の進歩は、ネットワーク概念と強力な推論能力に関する広範な事前知識を活用して、この方向性をさらに強化している。
しかし、重要な課題が3つ残っている。
1) 長い構成ファイルを持つ多数のルータデバイスは、LLMの長文理解能力に挑戦する。
2 デバイス及びプロトコル間の不均一性は、スケーラビリティを阻害する。
3) 複雑なネットワークトポロジとプロトコルはLLMの現在の能力を超える高度な推論能力を必要とする。
上記の課題に対処するため,NLを用いたネットワーククエリのための新しいフレームワークであるNetMindを提案する。
本手法では,効率的なパーティショニングを実現しつつ,セマンティックコヒーレンスを維持するために,ツリーベースの構成チャンキング戦略を導入する。
次に、ベンダー固有の設定を正規化するための中間表現として、統合されたファクトグラフを構築します。
最後に,LLMの推論負担を低減し,精度を向上させるために,ハイブリッド命令型宣言型言語を設計する。
ネットワーク構成と組み合わせたNL質問応答対からなるベンチマークに寄与する。
実験では、NetMindが正確でスケーラブルなネットワークの振る舞い理解を実現し、既存のベースラインを上回ります。
関連論文リスト
- Generalization emerges from local optimization in a self-organized learning network [0.0]
我々は,グローバルなエラー関数に頼ることなく,局所最適化ルールのみによって駆動される,教師付き学習ネットワーク構築のための新しいパラダイムを設計・分析する。
我々のネットワークは、ルックアップテーブルの形で、ノードに新しい知識を正確かつ瞬時に保存する。
本稿では,学習例数が十分に大きくなると,アルゴリズムによって生成されたネットワークが完全な一般化状態に体系的に到達する,分類タスクの多くの例を示す。
我々は状態変化のダイナミクスについて報告し、それが突然であり、従来の学習ネットワークですでに観察されている現象である1次相転移の特徴を持つことを示す。
論文 参考訳(メタデータ) (2024-10-03T15:32:08Z) - Unsupervised Graph Attention Autoencoder for Attributed Networks using
K-means Loss [0.0]
我々は、属性付きネットワークにおけるコミュニティ検出のための、教師なしのtextbfGraph Attention textbfAutotextbfEncoder に基づく、シンプルで効率的なクラスタリング指向モデルを提案する。
提案モデルは,ネットワークのトポロジと属性情報の両方から表現を十分に学習し,同時に2つの目的,すなわち再構築とコミュニティ発見に対処する。
論文 参考訳(メタデータ) (2023-11-21T20:45:55Z) - Enhancing Network Management Using Code Generated by Large Language
Models [15.557254786007325]
本稿では,大規模言語モデル(LLM)を用いて自然言語クエリからタスク固有コードを生成することにより,自然言語ベースのネットワーク管理エクスペリエンスを促進する新しいアプローチを提案する。
この方法は、ネットワークオペレーターが生成されたコードを検査できるようにすることで、説明可能性、スケーラビリティ、プライバシの課題に取り組む。
ベンチマークアプリケーションを用いてプロトタイプシステムを設計,評価し,高い精度,コスト効率,さらなる拡張の可能性を示す。
論文 参考訳(メタデータ) (2023-08-11T17:49:15Z) - Contextualizing MLP-Mixers Spatiotemporally for Urban Data Forecast at Scale [54.15522908057831]
本稿では,STTD予測を大規模に行うためのコンピュータ・ミクサーの適応版を提案する。
我々の結果は、この単純な効率の良いソリューションが、いくつかのトラフィックベンチマークでテストした場合、SOTAベースラインに匹敵する可能性があることを驚くほど示している。
本研究は, 実世界のSTTD予測において, 簡便な有効モデルの探索に寄与する。
論文 参考訳(メタデータ) (2023-07-04T05:19:19Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural Networks [44.31729147722701]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Globally Gated Deep Linear Networks [3.04585143845864]
我々はGGDLN(Globally Gated Deep Linear Networks)を導入する。
有限幅熱力学極限におけるこれらのネットワークの一般化特性の正確な方程式を導出する。
我々の研究は、有限幅の非線形ネットワークの族における学習に関する最初の正確な理論解である。
論文 参考訳(メタデータ) (2022-10-31T16:21:56Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - A Lightweight, Efficient and Explainable-by-Design Convolutional Neural
Network for Internet Traffic Classification [9.365794791156972]
本稿では、インターネットトラフィック分類のための新しい軽量・効率的・eXplainable-by-design畳み込みニューラルネットワーク(LEXNet)を提案する。
LEXNetは(軽量で効率の良い目的のために)新しい残留ブロックと(説明可能性のために)プロトタイプ層に依存している。
商用グレードのデータセットに基づいて、LEXNetは最先端のニューラルネットワークと同じ精度を維持することに成功した。
論文 参考訳(メタデータ) (2022-02-11T10:21:34Z) - Link Prediction with Contextualized Self-Supervision [63.25455976593081]
リンク予測は、ネットワーク内の2つのノード間のリンクの存在を推測することを目的としている。
従来のリンク予測アルゴリズムは、リンク空間、ノード属性ノイズ、ネットワークダイナミクスという3つの大きな課題によって妨げられている。
本稿では,リンク予測のための構造的コンテキスト予測を完全に活用する,コンテキスト適応型自己監視学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-25T03:12:32Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Compositional Networks Enable Systematic Generalization for Grounded
Language Understanding [21.481360281719006]
人間は、今まで遭遇したことのない概念の組み合わせを含む新しい文を理解する際に、驚くほど柔軟です。
近年の研究では、深層ネットワークは、新しい文で表されるときの人間の言語能力を模倣できるが、体系的な変化は、ネットワークの言語理解能力の限界を明らかにする。
本稿では,gSCANデータセットの一般化問題に対処することで,これらの制限を克服できることを実証する。
論文 参考訳(メタデータ) (2020-08-06T16:17:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。