論文の概要: EI-MTD:Moving Target Defense for Edge Intelligence against Adversarial
Attacks
- arxiv url: http://arxiv.org/abs/2009.10537v3
- Date: Wed, 25 Nov 2020 01:13:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 20:45:10.232939
- Title: EI-MTD:Moving Target Defense for Edge Intelligence against Adversarial
Attacks
- Title(参考訳): EI-MTD:敵攻撃に対するエッジインテリジェンスのためのターゲット防御
- Authors: Yaguan Qian, Qiqi Shao, Jiamin Wang, Xiang Lin, Yankai Guo, Zhaoquan
Gu, Bin Wang, Chunming Wu
- Abstract要約: 敵の例は、エッジノードのディープラーニングモデルを騙して誤分類することができる。
動的防御機構,すなわちEI-MTDを提案する。
まず、差分知識蒸留により、小さいサイズで頑健な部材モデルを得る。
次に,ベイジアン・スタックルバーグゲームに基づく動的スケジューリングポリシーを,サービス対象モデルの選択に適用する。
- 参考スコア(独自算出の注目度): 12.873052898792697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the boom of edge intelligence, its vulnerability to adversarial attacks
becomes an urgent problem. The so-called adversarial example can fool a deep
learning model on the edge node to misclassify. Due to the property of
transferability, the adversary can easily make a black-box attack using a local
substitute model. Nevertheless, the limitation of resource of edge nodes cannot
afford a complicated defense mechanism as doing on the cloud data center. To
overcome the challenge, we propose a dynamic defense mechanism, namely EI-MTD.
It first obtains robust member models with small size through differential
knowledge distillation from a complicated teacher model on the cloud data
center. Then, a dynamic scheduling policy based on a Bayesian Stackelberg game
is applied to the choice of a target model for service. This dynamic defense
can prohibit the adversary from selecting an optimal substitute model for
black-box attacks. Our experimental result shows that this dynamic scheduling
can effectively protect edge intelligence against adversarial attacks under the
black-box setting.
- Abstract(参考訳): エッジインテリジェンスのブームにより、敵の攻撃に対する脆弱性が緊急問題となっている。
いわゆる敵対的な例は、エッジノードのディープラーニングモデルを騙して、誤って分類することができる。
転送性の性質から、敵は局所的な代用モデルを用いて容易にブラックボックス攻撃を行うことができる。
それにもかかわらず、エッジノードのリソースの制限は、クラウドデータセンタで実行するような複雑な防御メカニズムを提供できない。
この課題を克服するために,EI-MTDという動的防御機構を提案する。
まず、クラウドデータセンター上の複雑な教師モデルから微分知識蒸留により、小さなサイズのロバストなメンバーモデルを得る。
次に,ベイジアン・スタックルバーグゲームに基づく動的スケジューリングポリシーを,サービス対象モデルの選択に適用する。
このダイナミックディフェンスは、ブラックボックス攻撃の最適な代替モデルを選択する敵を阻止することができる。
実験の結果,この動的スケジューリングは,ブラックボックス設定下での敵対的攻撃に対して効果的にエッジインテリジェンスを保護できることがわかった。
関連論文リスト
- BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - Efficient Defense Against Model Stealing Attacks on Convolutional Neural
Networks [0.548924822963045]
モデル盗難攻撃は知的財産の盗難や他のセキュリティやプライバシーのリスクにつながる可能性がある。
モデル盗難攻撃に対する現在の最先端の防御は、予測確率に摂動を加えることを示唆している。
我々は、シンプルで効果的で効率的な防衛代替案を提案する。
論文 参考訳(メタデータ) (2023-09-04T22:25:49Z) - A Review of Adversarial Attacks in Computer Vision [16.619382559756087]
敵対的攻撃は人間の目では見えないが、深層学習の誤分類につながる可能性がある。
敵攻撃は、攻撃者がモデルのパラメータと勾配を知っているホワイトボックス攻撃とブラックボックス攻撃に分けられ、後者は攻撃者がモデルの入力と出力しか取得できない。
論文 参考訳(メタデータ) (2023-08-15T09:43:10Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Can Targeted Adversarial Examples Transfer When the Source and Target
Models Have No Label Space Overlap? [36.96777303738315]
我々は,攻撃者のソースモデルとターゲットブラックボックスモデルがラベルスペースとトレーニングデータセットを持つ可能性がある環境に対して,ブラックボックス転送に基づく標的攻撃を設計する。
我々の方法論は、ホワイトボックスとブラックボックスラベルセットの間のクラス対応行列の構築から始まります。
我々は,我々の転送攻撃が,クエリベースの手法と統合された場合,強力な敵前処理として機能することを示す。
論文 参考訳(メタデータ) (2021-03-17T21:21:44Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。