論文の概要: REFN: A Reinforcement-Learning-From-Network Framework against 1-day/n-day Exploitations
- arxiv url: http://arxiv.org/abs/2508.10701v1
- Date: Thu, 14 Aug 2025 14:45:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.361381
- Title: REFN: A Reinforcement-Learning-From-Network Framework against 1-day/n-day Exploitations
- Title(参考訳): REFN: 1日/1日の爆発に対する強化学習ネットワークフレームワーク
- Authors: Tianlong Yu, Lihong Liu, Ziyi Zhou, Fudu Xing, Kailong Wang, Yang Yang,
- Abstract要約: 本稿では,Large Language Models (LLM) を訓練し,ネットワークフィルタを自律的に生成し,1日ないしn日のエクスプロイトを防止する新しいフレームワークであるREFNを紹介する。
REFNは、従来のヒューマンフィードバックではなく、オンラインネットワーク報酬によって駆動される強化学習(RL)を独自に採用することによって、スケーラビリティを保証する。
REFNは有効性(代替品よりも21.1%高い精度)、効率性(平均時間で3.65時間)、スケーラビリティ(簡単に10Kデバイスにスケールできる)を示す。
- 参考スコア(独自算出の注目度): 4.675306665285266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The exploitation of 1 day or n day vulnerabilities poses severe threats to networked devices due to massive deployment scales and delayed patching (average Mean Time To Patch exceeds 60 days). Existing defenses, including host based patching and network based filtering, are inadequate due to limited scalability across diverse devices, compatibility issues especially with embedded or legacy systems, and error prone deployment process (manual patch validation). To address these issues, we introduce REFN (Reinforcement Learning From Network), a novel framework that trains Large Language Models (LLMs) to autonomously generate network filters to prevent 1 day or n day exploitations. REFN ensures scalability by uniquely employs Reinforcement Learning (RL) driven by online network rewards instead of traditional Human Feedback (RLHF). REFN guarantees compatibility via unified deployment on edge security gateways (Amazon Eero). REFN provides robustness via online validation using real network traffic. Crucially, REFN addresses three core challenges in training LLMs for exploit prevention: 1) expanding current LLMs limited vulnerability fixing expertise via Agentic RAG based Knowledge Distillation, 2) bridging current LLMs language to network gaps through an RL From VNF Pipeline that translates language context (vulnerability description) into network enforcement, 3) addressing the LLM hallucination and non determinism via the Online Agentic Validation that penalizes erroneous outputs. Evaluated across 22 families of 1 day or n day exploits, REFN demonstrates effectiveness (21.1 percent higher accuracy than alternatives), efficiency (Mean Time To Patch of 3.65 hours) and scalability (easily scale to 10K devices). REFN serves as an initial step toward training LLMs to rapidly prevent massive scale 1 day or n day exploitations.
- Abstract(参考訳): 1日またはn日の脆弱性の悪用は、大規模なデプロイメントスケールと遅延パッチ(平均平均時間とパッチは60日を超えている)のため、ネットワーク化されたデバイスに深刻な脅威をもたらす。
ホストベースのパッチやネットワークベースのフィルタリングを含む既存のディフェンスは、さまざまなデバイス間でのスケーラビリティの制限、特に組み込みシステムやレガシーシステムにおける互換性の問題、エラーによるデプロイメントプロセス(手動のパッチ検証)など、不適切である。
これらの問題に対処するために,大規模言語モデル(LLM)を訓練し,ネットワークフィルタを自律的に生成し,1日ないしn日のエクスプロイトを防止する新しいフレームワークであるREFN(Reinforcement Learning From Network)を紹介した。
REFNは、従来のヒューマンフィードバック(RLHF)ではなく、オンラインネットワーク報酬によって駆動される強化学習(RL)を独自に採用することによって、スケーラビリティを保証する。
REFNは、エッジセキュリティゲートウェイ(Amazon Eero)への統合デプロイメントによる互換性を保証する。
REFNは、実際のネットワークトラフィックを使用したオンライン検証を通じて堅牢性を提供する。
重要な点として、REFNはLLMを悪用するためのトレーニングにおける3つのコア課題に対処している。
1) エージェントRAGをベースとした知識蒸留を通じて、現在のLLMを限定的な脆弱性修正の専門知識に拡張すること。
2) 言語コンテキスト(脆弱性記述)をネットワーク実行に変換するVNF PipelineからのRLを通じて,現在のLLM言語をネットワークギャップにブリッジする。
3) 不正なアウトプットを罰するオンラインエージェント検証を通じて, LLM幻覚と非決定性に対処すること。
1日またはn日のエクスプロイトの22のファミリーで評価され、REFNは有効性(代替品よりも21.1%高い精度)、効率性(平均時間で3.65時間)、スケーラビリティ(簡単に10Kデバイスにスケールできる)を示している。
REFNは、大規模な1日またはn日の搾取を迅速に防止するために、LSMを訓練する最初のステップとして機能する。
関連論文リスト
- A Federated Splitting Framework for LLMs: Security, Efficiency, and Adaptability [15.194518946737801]
FL-LLaMAはLLaMA2をベースとしたセキュアで効率的で適応的なフェデレーション分割フレームワークである。
我々は、並列トレーニングを実現するためにクライアントバッチとサーバ階層戦略、そして推論を高速化するために注目マスク圧縮とKVキャッシュ機構を採用する。
NLU、要約、会話型QAタスクの実験では、FL-LLaMAは集中型LLaMA2に匹敵する性能を維持し、最大2倍の列車スピードアップと8倍の推論スピードアップを実現している。
論文 参考訳(メタデータ) (2025-05-21T15:58:08Z) - Integrating Language Models for Enhanced Network State Monitoring in DRL-Based SFC Provisioning [5.37102888813454]
本稿では,Deep Reinforcement Learning(DRL)とLanguage Models(LM)を統合し,ネットワーク管理を強化する。
DRLからLMに最終的なVNF割り当てを供給することにより、システムはSFC、DC、VNFに関連するクエリを処理および応答し、リソース利用、ボトルネック検出、将来の需要計画に関するリアルタイムな洞察を可能にする。
論文 参考訳(メタデータ) (2025-02-16T22:52:14Z) - ADVLLM: Iterative Self-Tuning LLMs for Enhanced Jailbreaking Capabilities [63.603861880022954]
本稿では,対戦型LDMをジェイルブレイク能力に富んだ反復的自己調整プロセスであるADV-LLMを紹介する。
我々のフレームワークは,様々なオープンソース LLM 上で ASR を100% 近く達成しながら,逆接接尾辞を生成する計算コストを大幅に削減する。
Llama3のみに最適化されているにもかかわらず、GPT-3.5では99%のASR、GPT-4では49%のASRを達成している。
論文 参考訳(メタデータ) (2024-10-24T06:36:12Z) - The Early Bird Catches the Leak: Unveiling Timing Side Channels in LLM Serving Systems [26.528288876732617]
新たなタイミング側チャネルのセットを利用して、機密システムプロンプトと他のユーザによって発行された情報を推測することができる。
これらの脆弱性は、従来のコンピューティングシステムで観察されたセキュリティ上の問題と類似している。
キャッシュ内の共有プロンプトプレフィックスを効率的に回収するトークン・バイ・トークン検索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-30T06:55:00Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Efficient Interactive LLM Serving with Proxy Model-based Sequence Length Prediction [8.705908108054878]
大型モデル(LLM)は、多くのドメインにわたるAIアプリケーションの新しい波を駆動している。
LLM出力シーケンス長の予測に光プロキシモデルを用いる投機的ショートストジョブファースト(SSJF)スケジューラを提案する。
論文 参考訳(メタデータ) (2024-04-12T14:46:15Z) - FFN-SkipLLM: A Hidden Gem for Autoregressive Decoding with Adaptive Feed Forward Skipping [49.66872823080736]
自己回帰型大規模言語モデル(LLaMa, GPT)は、言語理解と生成において顕著な成功を収めている。
発生時に発生する過負荷を軽減するため、いくつかの早期退避および層下降戦略が提案されている。
本稿では,入力適応型フィードフォワードスキップ戦略であるFFN-SkipLLMを提案する。
論文 参考訳(メタデータ) (2024-04-05T02:35:43Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。