論文の概要: Adversarial Machine Learning-Based Anticipation of Threats Against
Vehicle-to-Microgrid Services
- arxiv url: http://arxiv.org/abs/2208.05073v1
- Date: Tue, 9 Aug 2022 23:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 13:05:45.817654
- Title: Adversarial Machine Learning-Based Anticipation of Threats Against
Vehicle-to-Microgrid Services
- Title(参考訳): 対向機械学習による車両対マイクログリッドサービスに対する脅威予測
- Authors: Ahmed Omara and Burak Kantarci
- Abstract要約: 本稿では,AML(Adversarial Machine Learning)の攻撃面の拡大と,V2M(Var-to-Microgrid)サービスに対する攻撃の可能性について検討する。
我々は,白箱攻撃に匹敵する結果が得られる多段階のグレーボックス攻撃について予測研究を行った。
- 参考スコア(独自算出の注目度): 4.863209463405629
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we study the expanding attack surface of Adversarial Machine
Learning (AML) and the potential attacks against Vehicle-to-Microgrid (V2M)
services. We present an anticipatory study of a multi-stage gray-box attack
that can achieve a comparable result to a white-box attack. Adversaries aim to
deceive the targeted Machine Learning (ML) classifier at the network edge to
misclassify the incoming energy requests from microgrids. With an inference
attack, an adversary can collect real-time data from the communication between
smart microgrids and a 5G gNodeB to train a surrogate (i.e., shadow) model of
the targeted classifier at the edge. To anticipate the associated impact of an
adversary's capability to collect real-time data instances, we study five
different cases, each representing different amounts of real-time data
instances collected by an adversary. Out of six ML models trained on the
complete dataset, K-Nearest Neighbour (K-NN) is selected as the surrogate
model, and through simulations, we demonstrate that the multi-stage gray-box
attack is able to mislead the ML classifier and cause an Evasion Increase Rate
(EIR) up to 73.2% using 40% less data than what a white-box attack needs to
achieve a similar EIR.
- Abstract(参考訳): 本稿では,adversarial machine learning (aml) の拡張攻撃面と,車両間マイクログリッド (v2m) サービスに対する潜在的な攻撃について検討する。
本稿では,ホワイトボックス攻撃と同等の結果が得られるマルチステージグレイボックス攻撃の予測実験について述べる。
敵は、ターゲット機械学習(ML)分類器をネットワークエッジで欺いて、マイクログリッドからの入ってくるエネルギー要求を誤分類することを目指している。
推論攻撃により、敵はスマートマイクログリッドと5g gnodeb間の通信からリアルタイムデータを収集して、エッジでターゲットの分類器のサロゲート(シャドー)モデルをトレーニングすることができる。
リアルタイムデータインスタンスを収集する敵の能力が関連する影響を予測するために,敵が収集するリアルタイムデータインスタンスの量を表す5つのケースを調査した。
完全なデータセットに基づいてトレーニングされた6つのMLモデルのうち、K-Nearest Neighbour(K-NN)がサロゲートモデルとして選択され、シミュレーションにより、マルチステージのグレーボックス攻撃がML分類器を誤解させ、ホワイトボックス攻撃が同様のEIRを達成するために必要なデータよりも最大40%少ないデータを用いて、EIR(Evasion increase Rate)を最大73.2%まで高めることを示した。
関連論文リスト
- Practical Membership Inference Attacks Against Large-Scale Multi-Modal
Models: A Pilot Study [17.421886085918608]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングにデータポイントを使用したかどうかを推測することを目的としている。
これらの攻撃は、潜在的なプライバシー上の脆弱性を特定し、個人データの不正使用を検出するために使用できる。
本稿では,大規模マルチモーダルモデルに対する実用的なMIAの開発に向けて第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-09-29T19:38:40Z) - A Review of Adversarial Attacks in Computer Vision [16.619382559756087]
敵対的攻撃は人間の目では見えないが、深層学習の誤分類につながる可能性がある。
敵攻撃は、攻撃者がモデルのパラメータと勾配を知っているホワイトボックス攻撃とブラックボックス攻撃に分けられ、後者は攻撃者がモデルの入力と出力しか取得できない。
論文 参考訳(メタデータ) (2023-08-15T09:43:10Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Property Inference Attacks Against GANs [19.443816794076763]
本稿では,GAN(Generative Adversarial Network)に対する最初のトレーニングデータセット特性推論攻撃を提案する。
プロパティ推論攻撃が成功すれば、敵はターゲットのGANのトレーニングデータセットについて余分な知識を得ることができる。
我々は,全ブラックボックス設定と部分ブラックボックス設定を含む2つの攻撃シナリオに合わせて調整可能な汎用アタックパイプラインを提案する。
論文 参考訳(メタデータ) (2021-11-15T08:57:00Z) - Adversarial Transfer Attacks With Unknown Data and Class Overlap [19.901933940805684]
現在の移動攻撃の研究は、攻撃者にとって非現実的な優位性を持っている。
攻撃者および被害者が不完全な設定で利用可能なデータに着目した敵攻撃の転送に関する最初の研究について述べる。
この脅威モデルは、医学、マルウェアなどの応用に関係している。
論文 参考訳(メタデータ) (2021-09-23T03:41:34Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - AdvMind: Inferring Adversary Intent of Black-Box Attacks [66.19339307119232]
本稿では,ブラックボックス攻撃の敵意を頑健に推定する新たな評価モデルであるAdvMindを提案する。
平均的なAdvMindは、3回未満のクエリバッチを観察した後、75%以上の精度で敵の意図を検出する。
論文 参考訳(メタデータ) (2020-06-16T22:04:31Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。