論文の概要: Availability Adversarial Attack and Countermeasures for Deep
Learning-based Load Forecasting
- arxiv url: http://arxiv.org/abs/2301.01832v1
- Date: Wed, 4 Jan 2023 21:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 14:44:13.833384
- Title: Availability Adversarial Attack and Countermeasures for Deep
Learning-based Load Forecasting
- Title(参考訳): ディープラーニングによる負荷予測のためのアベイラビリティ・アタックと対策
- Authors: Wangkun Xu, Fei Teng
- Abstract要約: ディープニューラルネットワークは敵の攻撃を受けやすい。
本稿では,攻撃者がより容易に実装可能な,アベイラビリティに基づく敵攻撃を提案する。
敵の訓練アルゴリズムは、アベイラビリティーアタックに対するロバスト性を大幅に改善する。
- 参考スコア(独自算出の注目度): 1.4112444998191698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The forecast of electrical loads is essential for the planning and operation
of the power system. Recently, advances in deep learning have enabled more
accurate forecasts. However, deep neural networks are prone to adversarial
attacks. Although most of the literature focuses on integrity-based attacks,
this paper proposes availability-based adversarial attacks, which can be more
easily implemented by attackers. For each forecast instance, the availability
attack position is optimally solved by mixed-integer reformulation of the
artificial neural network. To tackle this attack, an adversarial training
algorithm is proposed. In simulation, a realistic load forecasting dataset is
considered and the attack performance is compared to the integrity-based
attack. Meanwhile, the adversarial training algorithm is shown to significantly
improve robustness against availability attacks. All codes are available at
https://github.com/xuwkk/AAA_Load_Forecast.
- Abstract(参考訳): 電気負荷の予測は電力システムの計画と運用に不可欠である。
近年,ディープラーニングの進歩により,予測精度が向上している。
しかし、ディープニューラルネットワークは敵の攻撃を受けやすい。
文献のほとんどは完全性に基づく攻撃に焦点を当てているが、本論文では攻撃者により容易に実装できるアベイラビリティベースの敵攻撃を提案する。
各予測インスタンスに対して、アベイラビリティ攻撃位置は、人工ニューラルネットワークの混合整数再構成により最適に解決される。
この攻撃に対処するために,敵の訓練アルゴリズムを提案する。
シミュレーションでは、現実的な負荷予測データセットを検討し、攻撃性能を整合性に基づく攻撃と比較する。
一方、敵の訓練アルゴリズムは、アベイラビリティーアタックに対するロバスト性を大幅に改善する。
すべてのコードはhttps://github.com/xuwkk/AAA_Load_Forecastで入手できる。
関連論文リスト
- Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Learning from Attacks: Attacking Variational Autoencoder for Improving
Image Classification [17.881134865491063]
敵対的攻撃はディープニューラルネットワーク(DNN)の堅牢性に対する脅威と見なされることが多い。
この研究は、異なる視点から敵の攻撃を分析する。つまり、敵の例は、予測に有用な暗黙の情報を含んでいる。
データ自己表現とタスク固有の予測にDNNの利点を利用するアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-11T08:48:26Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。