論文の概要: Towards Efficiently Evaluating the Robustness of Deep Neural Networks in
IoT Systems: A GAN-based Method
- arxiv url: http://arxiv.org/abs/2111.10055v1
- Date: Fri, 19 Nov 2021 05:54:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 15:58:36.671828
- Title: Towards Efficiently Evaluating the Robustness of Deep Neural Networks in
IoT Systems: A GAN-based Method
- Title(参考訳): IoTシステムにおけるディープニューラルネットワークのロバスト性を効果的に評価する方法
- Authors: Tao Bai, Jun Zhao, Jinlin Zhu, Shoudong Han, Jiefeng Chen, Bo Li, Alex
Kot
- Abstract要約: 本稿では,AI-GAN(Attack-Inspired GAN)と呼ばれる新たなフレームワークを提案する。
広範な実験を通じて、AI-GANは攻撃の成功率が高く、既存の手法よりも優れ、生成時間を大幅に短縮する。
- 参考スコア(独自算出の注目度): 12.466212057641933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent Internet of Things (IoT) systems based on deep neural networks
(DNNs) have been widely deployed in the real world. However, DNNs are found to
be vulnerable to adversarial examples, which raises people's concerns about
intelligent IoT systems' reliability and security. Testing and evaluating the
robustness of IoT systems becomes necessary and essential. Recently various
attacks and strategies have been proposed, but the efficiency problem remains
unsolved properly. Existing methods are either computationally extensive or
time-consuming, which is not applicable in practice. In this paper, we propose
a novel framework called Attack-Inspired GAN (AI-GAN) to generate adversarial
examples conditionally. Once trained, it can generate adversarial perturbations
efficiently given input images and target classes. We apply AI-GAN on different
datasets in white-box settings, black-box settings and targeted models
protected by state-of-the-art defenses. Through extensive experiments, AI-GAN
achieves high attack success rates, outperforming existing methods, and reduces
generation time significantly. Moreover, for the first time, AI-GAN
successfully scales to complex datasets e.g. CIFAR-100 and ImageNet, with about
$90\%$ success rates among all classes.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)に基づくインテリジェントモノのインターネット(IoT)システムは、現実世界に広くデプロイされている。
しかし、DNNは敵の例に弱いことが判明し、インテリジェントなIoTシステムの信頼性とセキュリティに対する人々の懸念が高まる。
IoTシステムの堅牢性をテストし、評価することが不可欠である。
近年,様々な攻撃・戦略が提案されているが,効率問題は未解決のままである。
既存の手法は計算量や時間を要するが、実際には適用できない。
本稿では,AI-GAN(Attack-Inspired GAN)と呼ばれる新たなフレームワークを提案する。
トレーニングが完了すると、入力画像とターゲットクラスを効率よく生成できる。
我々は、ホワイトボックス設定、ブラックボックス設定、最先端の防御によって保護されたターゲットモデルで異なるデータセットにAI-GANを適用する。
広範な実験を通じて、ai-ganは高い攻撃成功率を達成し、既存の手法を上回り、生成時間を大幅に削減する。
さらに、AI-GANはCIFAR-100やImageNetといった複雑なデータセットに初めてスケールし、すべてのクラスで約90\%の成功を収めた。
関連論文リスト
- Multi-agent Reinforcement Learning-based Network Intrusion Detection System [3.4636217357968904]
侵入検知システム(IDS)は,コンピュータネットワークのセキュリティ確保において重要な役割を担っている。
本稿では,自動,効率的,堅牢なネットワーク侵入検出が可能な,新しいマルチエージェント強化学習(RL)アーキテクチャを提案する。
我々のソリューションは、新しい攻撃の追加に対応し、既存の攻撃パターンの変更に効果的に適応するように設計されたレジリエントなアーキテクチャを導入します。
論文 参考訳(メタデータ) (2024-07-08T09:18:59Z) - A Cutting-Edge Deep Learning Method For Enhancing IoT Security [0.0]
本稿では,Deep Learning-integrated Convolutional Neural Networks (CNN) とLong Short-Term Memory (LSTM) ネットワークを用いたモノのインターネット(IoT)環境侵入検知システム(IDS)の革新的な設計を提案する。
われわれのモデルはCICIDS 2017データセットに基づいて、ネットワークトラフィックを良性または悪意のいずれかとして分類する精度99.52%を達成した。
論文 参考訳(メタデータ) (2024-06-18T08:42:51Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Intrusion Detection in Internet of Things using Convolutional Neural
Networks [4.718295605140562]
CNNを用いたIoTデバイスへの侵入攻撃に対する新しい解決策を提案する。
データは畳み込み操作として符号化され、時間とともにセンサーデータからパターンをキャプチャする。
実験の結果, LSTMを用いたベースラインと比較して, 真正率, 偽正率ともに有意な改善が認められた。
論文 参考訳(メタデータ) (2022-11-18T07:27:07Z) - Dependable Intrusion Detection System for IoT: A Deep Transfer
Learning-based Approach [0.0]
本論文は,いくつかの既存手法より優れた深層移動学習型信頼型IDSモデルを提案する。
これは、少量のラベル付きデータに対して、通常のシナリオとアタックシナリオを特定するのに最も適している、効果的な属性選択を含んでいる。
また、信頼性の高い深層移動学習ベースのResNetモデルや、実世界のデータを考慮した評価も含んでいる。
論文 参考訳(メタデータ) (2022-04-11T02:46:22Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z) - AI-GAN: Attack-Inspired Generation of Adversarial Examples [14.709927651682783]
ディープニューラルネットワーク(DNN)は、入力に知覚不可能な摂動を加えることで構築された敵の例に対して脆弱である。
近年、様々な攻撃や戦略が提案されているが、現実的かつ効率的に敵の例を生成する方法は未解決のままである。
本稿では、ジェネレータ、識別器、攻撃者が共同で訓練されるAI-GAN(Attack-Inspired GAN)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-06T10:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。