論文の概要: INTA: Intent-Based Translation for Network Configuration with LLM Agents
- arxiv url: http://arxiv.org/abs/2501.08760v2
- Date: Sat, 20 Sep 2025 13:31:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 14:36:44.687629
- Title: INTA: Intent-Based Translation for Network Configuration with LLM Agents
- Title(参考訳): INTA: LLMエージェントを用いたネットワーク構成のためのインテントベース翻訳
- Authors: Yunze Wei, Xiaohui Xie, Tianshuo Hu, Yiwei Zuo, Xinyi Chen, Kaiwen Chi, Yong Cui,
- Abstract要約: 異なるネットワークデバイス間の関数構成の変換は、現代のネットワーク操作では一般的だが難しい課題である。
本稿では,Large Language Model (LLM) エージェントを利用するインテントベースの翻訳フレームワークであるINTAを提案する。
INTAは構文とビューの正確性の両方で98.15%の精度を達成し、コマンドリコールレートは84.72%である。
- 参考スコア(独自算出の注目度): 9.918289040021623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Translating configurations between different network devices is a common yet challenging task in modern network operations. This challenge arises in typical scenarios such as replacing obsolete hardware and adapting configurations to emerging paradigms like Software Defined Networking (SDN) and Network Function Virtualization (NFV). Engineers need to thoroughly understand both source and target configuration models, which requires considerable effort due to the complexity and evolving nature of these specifications. To promote automation in network configuration translation, we propose INTA, an intent-based translation framework that leverages Large Language Model (LLM) agents. The key idea of INTA is to use configuration intent as an intermediate representation for translation. It first employs LLMs to decompose configuration files and extract fine-grained intents for each configuration fragment. These intents are then used to retrieve relevant manuals of the target device. Guided by a syntax checker, INTA incrementally generates target configurations. The translated configurations are further verified and refined for semantic consistency. We implement INTA and evaluate it on real-world configuration datasets from the industry. Our approach outperforms state-of-the-art methods in translation accuracy and exhibits strong generalizability. INTA achieves an accuracy of 98.15% in terms of both syntactic and view correctness, and a command recall rate of 84.72% for the target configuration. The semantic consistency report of the translated configuration further demonstrates its practical value in real-world network operations.
- Abstract(参考訳): 異なるネットワークデバイス間で構成を変換することは、現代のネットワーク操作では一般的だが難しい課題である。
この課題は、古いハードウェアを置き換えたり、Software Defined Networking (SDN)やNetwork Function Virtualization (NFV)といった新しいパラダイムに設定を適用するといった典型的なシナリオで発生します。
エンジニアはソースモデルとターゲット構成モデルの両方を徹底的に理解する必要がある。
ネットワーク構成翻訳における自動化を促進するために,大規模言語モデル(LLM)エージェントを活用したインテントベースの翻訳フレームワークであるINTAを提案する。
INTAのキーとなる考え方は、コンフィグレーションインテントを翻訳の中間表現として使うことである。
最初はLLMを使用して構成ファイルを分解し、各構成フラグメントに対してきめ細かいインテントを抽出する。
これらのインテントは、ターゲットデバイスの関連するマニュアルを取得するために使用される。
構文チェッカーによってガイドされ、INTAは段階的にターゲット設定を生成する。
翻訳された構成はさらに検証され、セマンティック一貫性のために洗練される。
我々は、INTAを実装し、業界からの実際の設定データセットで評価する。
本手法は,翻訳精度において最先端の手法より優れ,高い一般化性を示す。
INTAは構文とビューの正確性の両方で98.15%の精度を達成し、コマンドリコールレートは84.72%である。
翻訳された構成のセマンティック一貫性レポートは、実世界のネットワーク操作における実用的価値をさらに示している。
関連論文リスト
- A Pilot Study on LLM-Based Agentic Translation from Android to iOS: Pitfalls and Insights [27.632954643254884]
大規模言語モデル(LLM)は、最近、様々な粒度のコード翻訳を強化するために利用された。
本研究は,モバイルアプリケーション翻訳におけるLSMに基づくエージェントアプローチの評価により,このギャップを埋めることを目的とする。
我々は,依存関係,仕様,プログラム構造,プログラム制御フローを考慮したエージェントの連鎖を開発した。
論文 参考訳(メタデータ) (2025-07-21T20:11:01Z) - AdaMergeX: Cross-Lingual Transfer with Large Language Models via
Adaptive Adapter Merging [96.39773974044041]
言語間移動は、特定の言語における目標タスクを直接微調整することの効果的な代替手段である。
本稿では,適応型アダプティブマージを利用した新しい言語間変換法である$textttAdaMergeX$を提案する。
実験の結果,提案手法は,すべての設定において既存の手法よりも優れ,新しい,効果的な言語間移動をもたらすことが示された。
論文 参考訳(メタデータ) (2024-02-29T07:11:24Z) - Intent Profiling and Translation Through Emergent Communication [30.44616418991389]
インテントプロファイリングと翻訳のためのAIベースのフレームワークを提案する。
ネットワークと対話するアプリケーションがドメイン言語におけるネットワークサービスのニーズを表現するシナリオを考察する。
インテントプロファイリングのための創発的コミュニケーションに基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T07:02:43Z) - Machine Translation Models are Zero-Shot Detectors of Translation Direction [46.41883195574249]
平行テキストの翻訳方向を検出することは、機械翻訳訓練や評価に応用できるが、盗作や偽造の主張を解消するといった法医学的応用もある。
本研究では,翻訳文や機械翻訳文でよく知られた単純化効果によって動機付けられた,$p(texttranslation|text Origin)>p(textgenic|texttranslation)$という単純な仮説に基づいて,翻訳方向検出のための教師なしアプローチを検討する。
論文 参考訳(メタデータ) (2024-01-12T18:59:02Z) - CMFDFormer: Transformer-based Copy-Move Forgery Detection with Continual
Learning [52.72888626663642]
コピーモーブ偽造検出は、疑わしい偽画像中の重複領域を検出することを目的としている。
深層学習に基づく複写偽造検出手法が最上位にある。
CMFDFormer という名称の Transformer-style copy-move forgery ネットワークを提案する。
また、CMFDFormerが新しいタスクを処理できるように、新しいPCSD連続学習フレームワークを提供する。
論文 参考訳(メタデータ) (2023-11-22T09:27:46Z) - Shiftable Context: Addressing Training-Inference Context Mismatch in
Simultaneous Speech Translation [0.17188280334580192]
セグメントベース処理を用いたトランスフォーマーモデルは、同時音声翻訳に有効なアーキテクチャである。
トレーニングと推論を通じて一貫したセグメントとコンテキストサイズを確実に維持するために、シフト可能なコンテキストを提案する。
論文 参考訳(メタデータ) (2023-07-03T22:11:51Z) - Cross-Lingual Transfer with Target Language-Ready Task Adapters [66.5336029324059]
MAD-Xフレームワークの拡張であるBAD-Xは、MAD-Xのモジュラリティを犠牲にして転送を改善する。
我々は、ターゲット言語に適応したタスクアダプタを微調整することで、両方の世界を最大限に活用することを目指している。
論文 参考訳(メタデータ) (2023-06-05T10:46:33Z) - Analyzing and Reducing the Performance Gap in Cross-Lingual Transfer
with Fine-tuning Slow and Fast [50.19681990847589]
既存の研究では、1つの(ソース)言語で微調整された多言語事前学習言語モデルが、非ソース言語の下流タスクでもうまく機能していることが示されている。
本稿では、微調整プロセスを分析し、パフォーマンスギャップがいつ変化するかを分析し、ネットワークの重みが全体のパフォーマンスに最も影響するかを特定する。
論文 参考訳(メタデータ) (2023-05-19T06:04:21Z) - Bilingual Synchronization: Restoring Translational Relationships with
Editing Operations [2.0411082897313984]
我々は、最初のターゲットシーケンスを仮定するより一般的な設定を考え、ソースの有効な翻訳に変換する必要がある。
この結果から、一度微調整された1つの汎用的な編集ベースシステムは、これらのタスクに特化して訓練された専用システムと比較、あるいは性能に優れる可能性が示唆された。
論文 参考訳(メタデータ) (2022-10-24T12:25:44Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z) - Cross-lingual Transferring of Pre-trained Contextualized Language Models [73.97131976850424]
本稿では,PRLMのための新しい言語間モデル転送フレームワークTreLMを提案する。
シンボルの順序と言語間のシーケンス長の差に対処するため,中間的なTRILayer構造を提案する。
提案手法は,スクラッチから学習した言語モデルに対して,性能と効率の両面で,限られたデータで著しく優れることを示す。
論文 参考訳(メタデータ) (2021-07-27T06:51:13Z) - Unsupervised Word Translation Pairing using Refinement based Point Set
Registration [8.568050813210823]
単語埋め込みの言語間アライメントは、言語間の知識伝達において重要な役割を果たす。
現在の教師なしのアプローチは、言語にまたがる単語埋め込み空間の幾何学的構造における類似性に依存している。
本稿では,バイリンガル単語の共有ベクトル空間への埋め込みを教師なしでマッピングするBioSpereを提案する。
論文 参考訳(メタデータ) (2020-11-26T09:51:29Z) - Retrofitting Structure-aware Transformer Language Model for End Tasks [34.74181162627023]
エンドタスクを容易にするための構造対応トランスフォーマー言語モデルについて検討する。
中層構造学習戦略は構造統合に活用される。
実験結果から, 再構成構造対応トランスフォーマー言語モデルにより, パープレキシティが向上することが確認された。
論文 参考訳(メタデータ) (2020-09-16T01:07:07Z) - Discretization-Aware Architecture Search [81.35557425784026]
本稿では,離散化対応アーキテクチャサーチ(DAtextsuperscript2S)を提案する。
中心となる考え方は、超ネットワークを所望のトポロジの構成に向けることであり、離散化による精度損失がほとんど軽減される。
標準画像分類ベンチマークの実験は、我々のアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-07-07T01:18:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。