論文の概要: Toward Realistic Adversarial Attacks in IDS: A Novel Feasibility Metric for Transferability
- arxiv url: http://arxiv.org/abs/2504.08480v1
- Date: Fri, 11 Apr 2025 12:15:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:17:22.887535
- Title: Toward Realistic Adversarial Attacks in IDS: A Novel Feasibility Metric for Transferability
- Title(参考訳): IDSにおける現実的敵攻撃に向けて:トランスファービリティーのための新しい可能性尺度
- Authors: Sabrine Ennaji, Elhadj Benkhelifa, Luigi Vincenzo Mancini,
- Abstract要約: 転送可能性に基づく敵攻撃は、特定のソース侵入検知システム(IDS)モデルを騙すために、敵の例を活用できる。
これらの攻撃は、セキュリティ対策や妥協システムを回避するために、機械学習モデルの一般的な脆弱性を利用する。
本稿では,機能アライメント,モデルアーキテクチャの類似性,および各IDSが検査するデータ分布の重複など,伝達可能性に寄与する要因について分析する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Transferability-based adversarial attacks exploit the ability of adversarial examples, crafted to deceive a specific source Intrusion Detection System (IDS) model, to also mislead a target IDS model without requiring access to the training data or any internal model parameters. These attacks exploit common vulnerabilities in machine learning models to bypass security measures and compromise systems. Although the transferability concept has been widely studied, its practical feasibility remains limited due to assumptions of high similarity between source and target models. This paper analyzes the core factors that contribute to transferability, including feature alignment, model architectural similarity, and overlap in the data distributions that each IDS examines. We propose a novel metric, the Transferability Feasibility Score (TFS), to assess the feasibility and reliability of such attacks based on these factors. Through experimental evidence, we demonstrate that TFS and actual attack success rates are highly correlated, addressing the gap between theoretical understanding and real-world impact. Our findings provide needed guidance for designing more realistic transferable adversarial attacks, developing robust defenses, and ultimately improving the security of machine learning-based IDS in critical systems.
- Abstract(参考訳): トランスファービリティベースの敵攻撃は、特定のソース侵入検知システム(IDS)モデルを騙し、トレーニングデータや内部モデルパラメータへのアクセスを必要とせず、ターゲットIDSモデルを誤解させるように作られた敵の例を利用する。
これらの攻撃は、セキュリティ対策や妥協システムを回避するために、機械学習モデルの一般的な脆弱性を利用する。
転送可能性の概念は広く研究されているが、ソースモデルとターゲットモデルの間に高い類似性の仮定があるため、実際の実現可能性はまだ限られている。
本稿では,機能アライメント,モデルアーキテクチャの類似性,および各IDSが検査するデータ分布の重複など,伝達可能性に寄与する要因について分析する。
本稿では,これらの要因に基づいて,これらの攻撃の有効性と信頼性を評価するための新しい指標であるトランスファービリティ・フィージビリティ・スコア(TFS)を提案する。
実験により,TFSと実際の攻撃成功率は高い相関性を示し,理論的理解と実世界への影響のギャップに対処する。
我々の研究は、より現実的な転送可能な敵攻撃を設計し、堅牢な防御を開発し、究極的にはクリティカルシステムにおける機械学習ベースのIDSのセキュリティを改善するために必要なガイダンスを提供する。
関連論文リスト
- From Models to Network Topologies: A Topology Inference Attack in Decentralized Federated Learning [7.228253116465784]
本研究では,モデル行動のみに基づく分散学習(DFL)システムのオーバーレイトポロジを推定できる可能性について検討する。
トポロジ推論攻撃の分類法が提案され、攻撃者の能力と知識によって分類される。
実験により、個々のノードの公開モデルのみを分析することで、DFLトポロジを正確に推測できることが示されている。
論文 参考訳(メタデータ) (2025-01-06T16:27:53Z) - On Adversarial Robustness of Language Models in Transfer Learning [13.363850350446869]
転送学習は、標準的なパフォーマンス指標を改善する一方で、敵攻撃に対する脆弱性の増加につながることがよく示される。
以上の結果から, モデルサイズ, アーキテクチャ, 適応手法の複雑な相互作用が示唆された。
論文 参考訳(メタデータ) (2024-12-29T15:55:35Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Poisoning Attacks and Defenses on Artificial Intelligence: A Survey [3.706481388415728]
データ中毒攻撃は、トレーニングフェーズ中にモデルに供給されたデータサンプルを改ざんして、推論フェーズ中にモデルの精度を低下させる攻撃の一種である。
この研究は、この種の攻撃に対処する最新の文献で見つかった最も関連性の高い洞察と発見をまとめたものである。
実環境下での幅広いMLモデルに対するデータ中毒の影響を比較検討し,本研究の徹底的な評価を行った。
論文 参考訳(メタデータ) (2022-02-21T14:43:38Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。