論文の概要: Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification
- arxiv url: http://arxiv.org/abs/2301.13122v1
- Date: Mon, 30 Jan 2023 18:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 13:27:59.706316
- Title: Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification
- Title(参考訳): IoT侵入検知と分類のための逆現実主義とロバスト学習に向けて
- Authors: Jo\~ao Vitorino, Isabel Pra\c{c}a, Eva Maia
- Abstract要約: IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Internet of Things (IoT) faces tremendous security challenges. Machine
learning models can be used to tackle the growing number of cyber-attack
variations targeting IoT systems, but the increasing threat posed by
adversarial attacks restates the need for reliable defense strategies. This
work describes the types of constraints required for an adversarial
cyber-attack example to be realistic and proposes a methodology for a
trustworthy adversarial robustness analysis with a realistic adversarial
evasion attack vector. The proposed methodology was used to evaluate three
supervised algorithms, Random Forest (RF), Extreme Gradient Boosting (XGB), and
Light Gradient Boosting Machine (LGBM), and one unsupervised algorithm,
Isolation Forest (IFOR). Constrained adversarial examples were generated with
the Adaptative Perturbation Pattern Method (A2PM), and evasion attacks were
performed against models created with regular and adversarial training. Even
though RF was the least affected in binary classification, XGB consistently
achieved the highest accuracy in multi-class classification. The obtained
results evidence the inherent susceptibility of tree-based algorithms and
ensembles to adversarial evasion attacks and demonstrates the benefits of
adversarial training and a security by design approach for a more robust IoT
network intrusion detection.
- Abstract(参考訳): IoT(Internet of Things)は重大なセキュリティ上の課題に直面している。
マシンラーニングモデルは、IoTシステムを対象としたサイバー攻撃の増加に対処するために使用できるが、敵攻撃による脅威の増加は、信頼できる防衛戦略の必要性を回復させる。
本研究は,敵のサイバー攻撃例が現実的であるために必要な制約の種類を記述し,現実的敵の回避攻撃ベクトルを用いた信頼に値する敵のロバストネス分析手法を提案する。
提案手法は,ランダムフォレスト (rf), 極値勾配ブースティング (xgb), および光勾配ブースティングマシン (lgbm), および非教師なしアルゴリズムであるアイソレーションフォレスト (ifor) の3つの教師ありアルゴリズムを評価した。
適応摂動パターン法 (Adaptative Perturbation Pattern Method, A2PM) を用いて制約付き対向例を生成し, 正規および対向訓練で作成したモデルに対して回避攻撃を行った。
RFは二分分類において最も影響を受けなかったが、XGBは多クラス分類において常に高い精度を達成した。
その結果,木に基づくアルゴリズムやアンサンブルの逆回避攻撃に対する感受性を実証し,より堅牢なIoTネットワーク侵入検出のための設計アプローチによる敵のトレーニングとセキュリティのメリットを実証した。
関連論文リスト
- Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks [0.0]
敵対的攻撃は、画像分類におけるディープラーニングモデルの堅牢性に重大な脅威をもたらす。
本稿では,ニューラルネットワークのレジリエンスを高めるために,これらの攻撃に対する防御機構を探索し,洗練する。
論文 参考訳(メタデータ) (2024-08-20T02:00:02Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Interpretability is a Kind of Safety: An Interpreter-based Ensemble for
Adversary Defense [28.398901783858005]
我々は,強固な防御敵に対するX-Ensembleと呼ばれるインタプリタベースのアンサンブルフレームワークを提案する。
X-エンサンブルはランダムフォレスト(RF)モデルを用いて、準検出器をアンサンブル検出器に結合し、敵のハイブリッド攻撃防御を行う。
論文 参考訳(メタデータ) (2023-04-14T04:32:06Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Adaptative Perturbation Patterns: Realistic Adversarial Learning for
Robust NIDS [0.3867363075280543]
アドリアックは、機械学習とそれに依存するシステムにとって大きな脅威となる。
この研究は、グレーボックス設定でこれらの制約を満たすためにAdaptative Perturbation Pattern Method (A2PM)を導入する。
A2PMは、各クラスの特性に独立して適応し、有効で一貫性のあるデータ摂動を生成するパターン配列に依存している。
論文 参考訳(メタデータ) (2022-03-08T17:52:09Z) - A Comparative Analysis of Machine Learning Techniques for IoT Intrusion
Detection [0.0]
本稿では,IoT-23データセットの9つのマルウェアキャプチャにおける教師付き・教師なし・強化学習手法の比較分析を行った。
SVM, Extreme Gradient Boosting (XGBoost), Light Gradient Boosting Machine (LightGBM), isolation Forest (iForest), Local Outlier Factor (LOF), Deep Reinforcement Learning (DRL) model based on a Double Deep Q-Network (DDQN)。
論文 参考訳(メタデータ) (2021-11-25T16:14:54Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。