論文の概要: Automating Conflict-Aware ACL Configurations with Natural Language Intents
- arxiv url: http://arxiv.org/abs/2508.17990v1
- Date: Mon, 25 Aug 2025 13:00:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.783975
- Title: Automating Conflict-Aware ACL Configurations with Natural Language Intents
- Title(参考訳): 自然言語インテントによる競合認識型ACL構成の自動化
- Authors: Wenlong Ding, Jianqiang Li, Zhixiong Niu, Huangxun Chen, Yongqiang Xiong, Hong Xu,
- Abstract要約: Xumiは、自然言語の意図を完全なACLルールに翻訳し、演算子の手作業を減らす。
Xumiは、ACLと競合するO(100)に対処し、現代のクラウドネットワークにおいて、ルールの追加を40%削減する。
- 参考スコア(独自算出の注目度): 13.17207545728811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ACL configuration is essential for managing network flow reachability, yet its complexity grows significantly with topologies and pre-existing rules. To carry out ACL configuration, the operator needs to (1) understand the new configuration policies or intents and translate them into concrete ACL rules, (2) check and resolve any conflicts between the new and existing rules, and (3) deploy them across the network. Existing systems rely heavily on manual efforts for these tasks, especially for the first two, which are tedious, error-prone, and impractical to scale. We propose Xumi to tackle this problem. Leveraging LLMs with domain knowledge of the target network, Xumi automatically and accurately translates the natural language intents into complete ACL rules to reduce operators' manual efforts. Xumi then detects all potential conflicts between new and existing rules and generates resolved intents for deployment with operators' guidance, and finally identifies the best deployment plan that minimizes the rule additions while satisfying all intents. Evaluation shows that Xumi accelerates the entire configuration pipeline by over 10x compared to current practices, addresses O(100) conflicting ACLs and reduces rule additions by ~40% in modern cloud network.
- Abstract(参考訳): ACLの構成は、ネットワークフローの到達性を管理するために不可欠だが、その複雑さはトポロジや既存のルールとともに著しく増大する。
ACL設定を実行するには、(1)新しい設定ポリシーや意図を理解し、それらを具体的なACLルールに変換し、(2)新しいルールと既存のルールの衝突をチェックし解決し、(3)ネットワーク全体にデプロイする必要があります。
既存のシステムは、特に最初の2つのタスクにおいて、手作業に大きく依存している。
我々はこの問題に対処するためにXumiを提案する。
ターゲットネットワークのドメイン知識でLLMを活用することで、Xumiは自然言語の意図を完全なACLルールに自動的かつ正確に変換し、演算子の手作業を減らす。
次に、Xumiは、新しいルールと既存のルール間の潜在的な衝突を検知し、オペレータのガイダンスでデプロイメントのための解決された意図を生成し、最終的には、すべての意図を満たしながらルールの追加を最小限にする最適なデプロイメント計画を特定する。
評価によると、Xumiは現在のプラクティスと比較して構成パイプライン全体を10倍以上加速し、ACLと競合するO(100)に対処し、現代のクラウドネットワークではルールの追加を約40%削減している。
関連論文リスト
- LLM-Based Config Synthesis requires Disambiguation [0.7598000270943346]
LLMを用いたプログラム合成の問題点は、ユーザ意図のあいまいさである。
本稿では,ユーザインテントを抽出するDisambiguatorと呼ばれる新しいモジュールを付加したLLMを用いたプロトタイプシステムであるClarifyを提案する。
我々のあいまいさの扱いは、更新の意図がLLMによって正しく合成できる場合に、より一般的に有用であるが、それらの統合は曖昧であり、異なるグローバルな振る舞いをもたらす可能性がある。
論文 参考訳(メタデータ) (2025-07-16T17:29:15Z) - CoP: Agentic Red-teaming for Large Language Models using Composition of Principles [61.404771120828244]
本稿では,Large Language Models (LLM) のリピートプロセスを自動化するエージェントワークフローを提案する。
ヒューマンユーザは、AIエージェントへの指示として、効果的な赤チーム戦略を自動オーケストレーションし、ジェイルブレイクプロンプトを生成する、一連の赤チームの原則を提供する。
先進的なLLMに対して試験すると、CoPは新しいジェイルブレイクプロンプトを見つけ、最もよく知られているシングルターン攻撃の成功率を19.0倍に改善することで、前例のない安全リスクを明らかにしている。
論文 参考訳(メタデータ) (2025-06-01T02:18:41Z) - OrgAccess: A Benchmark for Role Based Access Control in Organization Scale LLMs [7.999158988904784]
大規模言語モデル(LLM)は、エンタープライズ環境での統合知識リポジトリとインテリジェントアシスタントとして機能する。
この重要な能力を評価することは、現実の企業データとアクセス制御ポリシーの独自性と機密性のため、本質的に難しい。
組織の役割やレベルに共通する40種類のパーミッションからなる,総合的かつ代表的な textbfOrgAccess ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-05-25T14:30:15Z) - RecDCL: Dual Contrastive Learning for Recommendation [65.6236784430981]
本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
論文 参考訳(メタデータ) (2024-01-28T11:51:09Z) - Metalearning Continual Learning Algorithms [42.710124929514066]
本稿では,自己参照型ニューラルネットワークを連続的(メタ)学習アルゴリズムに学習するために,ACL(Automated Continual Learning)を提案する。
ACLは、継続学習(CL)デシダラタ(古いタスクと新しいタスクの両方で優れたパフォーマンス)をメタラーニング目標にエンコードする。
我々の実験は、ACLが「コンテキスト内破滅的忘れ」を効果的に解決することを示した。
論文 参考訳(メタデータ) (2023-12-01T01:25:04Z) - In-Context Learning Learns Label Relationships but Is Not Conventional
Learning [60.891931501449726]
大規模言語モデルの文脈内学習(ICL)能力について、現時点では合意が得られていない。
ICLがラベル情報をどのように活用するかという新たな洞察を提供し、機能と制限の両方を明らかにします。
実験の結果, ICLの予測はコンテキスト内ラベルにほぼ常に依存しており, ICLはコンテキスト内における真に新しいタスクを学習できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T16:54:41Z) - On Codex Prompt Engineering for OCL Generation: An Empirical Study [10.184056098238765]
Object Constraint Language (OCL)は、MOFモデルに制約とオブジェクトクエリ式を追加する宣言型言語である。
GPT-3のような最近のLPMの進歩は、多くのNLPタスクにおいてその能力を示している。
自然言語仕様からCodexが生成するOCL制約の信頼性について検討する。
論文 参考訳(メタデータ) (2023-03-28T18:50:51Z) - Generalized Few-Shot Continual Learning with Contrastive Mixture of
Adapters [59.82088750033897]
我々は,クラスおよびドメインインクリメンタルな状況を含む汎用FSCL (GFSCL) プロトコルを構築した。
一般的な連続学習手法は、目に見えない領域に一般化能力が乏しいことが判明した。
このようにして、視覚変換器(ViT)に基づくリハーサルフリーフレームワークであるContrastive Mixture of Adapters(CMoA)を提案する。
論文 参考訳(メタデータ) (2023-02-12T15:18:14Z) - Learning with Multiple Complementary Labels [94.8064553345801]
補ラベル(CL)は、単に例の不正なクラスを示すが、CLで学習すると、多クラス分類器が生成される。
そこで本研究では,MCLを各例に示すための新しい問題設定と,MCLを学習するための2つの方法を提案する。
論文 参考訳(メタデータ) (2019-12-30T13:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。