論文の概要: PANTS: Practical Adversarial Network Traffic Samples against ML-powered Networking Classifiers
- arxiv url: http://arxiv.org/abs/2409.04691v1
- Date: Sat, 7 Sep 2024 03:24:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 21:14:48.238587
- Title: PANTS: Practical Adversarial Network Traffic Samples against ML-powered Networking Classifiers
- Title(参考訳): PANTS:MLによるネットワーク分類に対する現実的な敵対的ネットワークトラフィックサンプル
- Authors: Minhao Jin, Maria Apostolaki,
- Abstract要約: 本稿では,敵入力に対するMNCのロバスト性の評価と強化を支援することを目的とする。
本稿では,Satisfiability Modulo Theories (SMT) とAML技術を統合した実用的ホワイトボックスフレームワークであるPANTSを紹介する。
また, PANTSを反復的対向訓練プロセスに組み込み, 対向入力に対するMCCの堅牢性を高める。
- 参考スコア(独自算出の注目度): 0.38366697175402215
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multiple network management tasks, from resource allocation to intrusion detection, rely on some form of ML-based network-traffic classification (MNC). Despite their potential, MNCs are vulnerable to adversarial inputs, which can lead to outages, poor decision-making, and security violations, among other issues. The goal of this paper is to help network operators assess and enhance the robustness of their MNC against adversarial inputs. The most critical step for this is generating inputs that can fool the MNC while being realizable under various threat models. Compared to other ML models, finding adversarial inputs against MNCs is more challenging due to the existence of non-differentiable components e.g., traffic engineering and the need to constrain inputs to preserve semantics and ensure reliability. These factors prevent the direct use of well-established gradient-based methods developed in adversarial ML (AML). To address these challenges, we introduce PANTS, a practical white-box framework that uniquely integrates AML techniques with Satisfiability Modulo Theories (SMT) solvers to generate adversarial inputs for MNCs. We also embed PANTS into an iterative adversarial training process that enhances the robustness of MNCs against adversarial inputs. PANTS is 70% and 2x more likely in median to find adversarial inputs against target MNCs compared to two state-of-the-art baselines, namely Amoeba and BAP. Integrating PANTS into the adversarial training process enhances the robustness of the target MNCs by 52.7% without sacrificing their accuracy. Critically, these PANTS-robustified MNCs are more robust than their vanilla counterparts against distinct attack-generation methodologies.
- Abstract(参考訳): リソース割り当てから侵入検知まで、複数のネットワーク管理タスクは、MLベースのネットワークトラヒック分類(MNC)の一種に依存している。
その可能性にもかかわらず、MNCは敵の入力に弱いため、障害、意思決定の貧弱、セキュリティ違反などの問題を引き起こす可能性がある。
本研究の目的は、ネットワークオペレーターが敵入力に対するMNCの堅牢性を評価し、強化することである。
最も重要なステップは、様々な脅威モデルの下で実現可能でありながら、MNCを騙すことができる入力を生成することだ。
他のMLモデルと比較して、MNCに対する逆入力を見つけることは、例えば、交通工学、セマンティクスを保存し信頼性を確保するために入力を制限する必要性など、より困難である。
これらの要因は、AML(Adversarial ML)で開発されたよく確立された勾配に基づく手法の直接的使用を妨げる。
これらの課題に対処するため,我々は,Satisfiability Modulo Theories (SMT)ソルバとAML技術を一意に統合し,MPCの逆入力を生成する実用的ホワイトボックスフレームワークであるPANTSを紹介した。
また, PANTSを反復的対向訓練プロセスに組み込み, 対向入力に対するMNCの堅牢性を高める。
PANTSは、AmoebaとBAPの2つの最先端ベースラインと比較して、中央値の70%と2倍の確率で、ターゲットMCCに対する敵対的な入力を見つける。
PANTSを敵の訓練プロセスに統合することで、精度を犠牲にすることなく、ターゲットMCCの堅牢性を52.7%向上させる。
批判的に、これらのPANTS汚染されたMNCは、別個の攻撃発生法に対してバニラよりも頑丈である。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Cross-modality Information Check for Detecting Jailbreaking in Multimodal Large Language Models [17.663550432103534]
マルチモーダル大言語モデル(MLLM)は、多モーダル情報を包括的に理解するためにLLMの能力を拡張する。
これらのモデルは、悪意のあるユーザーがターゲットモデルの安全アライメントを壊し、誤解を招く、有害な回答を発生させることができるジェイルブレイク攻撃の影響を受けやすい。
本稿では,悪質な摂動画像入力を識別するプラグイン・アンド・プレイのジェイルブレイク検出装置であるCIDERを提案する。
論文 参考訳(メタデータ) (2024-07-31T15:02:46Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - Adversarial Evasion Attacks Practicality in Networks: Testing the Impact of Dynamic Learning [1.6574413179773757]
敵攻撃は、MLモデルを騙して欠陥予測を生成することを目的としている。
敵攻撃はMLベースのNIDSを妥協する。
本実験は, 対人訓練を伴わない継続的再訓練は, 対人攻撃の有効性を低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-08T18:32:08Z) - RobustPdM: Designing Robust Predictive Maintenance against Adversarial
Attacks [0.0]
対人攻撃はRUL予測の深刻な欠陥(最大11倍)を引き起こす可能性を示し、3Xによる最先端のPdM攻撃の有効性を上回った。
また,敵攻撃を防御する新たな対人訓練法を提案する。
論文 参考訳(メタデータ) (2023-01-25T20:49:12Z) - Practical Adversarial Attacks Against AI-Driven Power Allocation in a
Distributed MIMO Network [0.0]
分散マルチインプット多重出力(D-MIMO)ネットワークでは、ユーザのスペクトル効率を最適化するために電力制御が不可欠である。
深層ニューラルネットワークに基づく人工知能(AI)ソリューションが提案され、複雑性が低下する。
本研究では,悪意のあるユーザや無線ユニットから派生したターゲットAIモデルに対する脅威は,ネットワーク性能を著しく低下させる可能性があることを示す。
論文 参考訳(メタデータ) (2023-01-23T07:51:25Z) - Boosting Adversarial Robustness From The Perspective of Effective Margin
Regularization [58.641705224371876]
ディープニューラルネットワーク(DNN)の敵対的脆弱性は、ここ数年で積極的に研究されている。
本稿では,クロスエントロピー損失のスケール変動特性について検討する。
提案した有効マージン正則化(EMR)は,大きな有効マージンを学習し,標準トレーニングと対向トレーニングの両方において対向的ロバスト性を高めることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:16:56Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。