論文の概要: EAGER: Edge-Aligned LLM Defense for Robust, Efficient, and Accurate Cybersecurity Question Answering
- arxiv url: http://arxiv.org/abs/2511.19523v1
- Date: Mon, 24 Nov 2025 06:49:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.070377
- Title: EAGER: Edge-Aligned LLM Defense for Robust, Efficient, and Accurate Cybersecurity Question Answering
- Title(参考訳): EAGER: 堅牢で効率的で正確なサイバーセキュリティ質問応答のためのエッジアラインなLDM防御
- Authors: Onat Gungor, Roshan Sood, Jiasheng Zhou, Tajana Rosing,
- Abstract要約: EAGERは、パラメータ効率の量子化とドメイン固有の優先順位アライメントを統合し、効率、堅牢性、精度を共同で最適化する。
実験により、EAGERは敵の攻撃成功率を最大7.3倍に下げ、最先端の防御よりもQAの精度を最大55%向上させることが示された。
- 参考スコア(独自算出の注目度): 10.78145758065258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are highly effective for cybersecurity question answering (QA) but are difficult to deploy on edge devices due to their size. Quantization reduces memory and compute requirements but often degrades accuracy and increases vulnerability to adversarial attacks. We present EAGER, an edge-aligned defense framework that integrates parameter-efficient quantization with domain-specific preference alignment to jointly optimize efficiency, robustness, and accuracy. Unlike prior methods that address these aspects separately, EAGER leverages Quantized Low-Rank Adaptation (QLoRA) for low-cost fine-tuning and Direct Preference Optimization (DPO) on a self-constructed cybersecurity preference dataset, eliminating the need for human labels. Experiments show that EAGER reduces adversarial attack success rates by up to 7.3x and improves QA accuracy by up to 55% over state-of-the-art defenses, while achieving the lowest response latency on a Jetson Orin, demonstrating its practical edge deployment.
- Abstract(参考訳): 大規模言語モデル(LLM)は、サイバーセキュリティ質問応答(QA)に非常に効果的であるが、そのサイズのためエッジデバイスにデプロイすることは困難である。
量子化はメモリと計算要求を減らすが、しばしば精度を低下させ、敵攻撃に対する脆弱性を増加させる。
EAGERは、パラメータ効率の量子化とドメイン固有の優先順位アライメントを統合して、効率、堅牢性、精度を協調的に最適化するエッジアライン・ディフェンス・フレームワークである。
これらの側面を別々に扱う従来の方法とは異なり、EAGERは、低コストな微調整と自己構築されたサイバーセキュリティ設定データセット上でのダイレクトプライオリティ最適化(DPO)のために、量子化低ランク適応(QLoRA)を利用する。
実験の結果、EAGERは敵の攻撃成功率を最大7.3倍に削減し、最先端の防御よりもQAの精度を最大55%向上する一方で、Jetson Orin上では最低のレスポンスレイテンシを実現し、その実用的なエッジデプロイメントを実証している。
関連論文リスト
- AQUA-LLM: Evaluating Accuracy, Quantization, and Adversarial Robustness Trade-offs in LLMs for Cybersecurity Question Answering [8.946002046630845]
大規模言語モデル(LLM)は近年,サイバーセキュリティ質問応答(QA)の強力な可能性を示している。
それらの膨大な計算要求は、リソース制約のあるエッジデバイスへの展開に重大な課題をもたらす。
AQUA-LLMは、4つの異なる構成で複数の最先端の小型LCMをベンチマークするために設計された評価フレームワークである。
論文 参考訳(メタデータ) (2025-09-16T20:19:24Z) - High-Frequency Semantics and Geometric Priors for End-to-End Detection Transformers in Challenging UAV Imagery [6.902247657565531]
本稿では,空中シーンに適したリアルタイム検出変換器であるHEDS-DETRを紹介する。
まず,高周波数拡張セマンティックスネットワーク(HFESNet)のバックボーンを提案する。
第2に、高分解能特徴を効率的に融合させることにより、情報損失に対処する。
第三に、2つの相乗的成分を用いてデコーダの安定性と位置決め精度を向上させる。
論文 参考訳(メタデータ) (2025-07-01T14:56:56Z) - AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - Breaking the Limits of Quantization-Aware Defenses: QADT-R for Robustness Against Patch-Based Adversarial Attacks in QNNs [3.962831477787584]
量子ニューラルネットワーク(QNN)は、モデルサイズと計算コストを削減するための有望なソリューションとして登場した。
本研究は, 量子化モデルにおいて, 逆パッチは高い転送性を有することを示す。
本稿では,QADT-R(Quantization-Aware Defense Training with Randomization)を提案する。
論文 参考訳(メタデータ) (2025-03-10T08:43:36Z) - REINFORCE Adversarial Attacks on Large Language Models: An Adaptive, Distributional, and Semantic Objective [57.57786477441956]
応答の個体群に対する適応的・意味的最適化問題を提案する。
我々の目標は、Llama3の攻撃成功率(ASR)を2倍にし、サーキットブレーカー防御でASRを2%から50%に向上させることである。
論文 参考訳(メタデータ) (2025-02-24T15:34:48Z) - HAFLQ: Heterogeneous Adaptive Federated LoRA Fine-tuned LLM with Quantization [55.972018549438964]
LLM(Federated Fine-tuning of Pre-trained Large Language Models)は、さまざまなデータセットにまたがるタスク固有の適応を可能にすると同時に、プライバシの保護を可能にする。
本研究では, HAFLQ (Heterogeneous Adaptive Federated Low-Rank Adaptation Fine-tuned LLM with Quantization) を提案する。
テキスト分類タスクの実験結果から,HAFLQはメモリ使用量を31%削減し,通信コストを49%削減し,精度を50%向上し,ベースライン法よりも高速な収束を実現している。
論文 参考訳(メタデータ) (2024-11-10T19:59:54Z) - Unitary Multi-Margin BERT for Robust Natural Language Processing [0.0]
近年のディープラーニングに対する敵対的攻撃は、多くのミッションクリティカル自然言語処理(NLP)システムを搾取の危険にさらしている。
本稿では,計算効率のよい対角防御手法の欠如に対処するため,一元重みとマルチマージン損失を組み合わせることにより,変換器(BERT)からの双方向表現の堅牢性を大幅に向上させる,新しい普遍的手法を報告する。
統一マルチマージンBERT (UniBERT) は,攻撃後分類の精度を5.3%から73.8%向上させ,競争前の精度を維持した。
論文 参考訳(メタデータ) (2024-10-16T17:30:58Z) - HO-FMN: Hyperparameter Optimization for Fast Minimum-Norm Attacks [14.626176607206748]
本稿では,よく知られた高速最小ノルム攻撃アルゴリズムのパラメトリック変種を提案する。
我々は12のロバストモデルを再評価し、追加のチューニングを必要とせずに敵の摂動が小さくなることを示した。
論文 参考訳(メタデータ) (2024-07-11T18:30:01Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。