論文の概要: On the Sensitivity of Deep Load Disaggregation to Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2307.10209v1
- Date: Fri, 14 Jul 2023 13:10:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 11:29:25.253486
- Title: On the Sensitivity of Deep Load Disaggregation to Adversarial Attacks
- Title(参考訳): 敵攻撃に対する深部荷重分散の感度について
- Authors: Hafsa Bousbiat, Yassine Himeur, Abbes Amira, Wathiq Mansoor
- Abstract要約: 敵対的攻撃は、コンピュータビジョンや音声認識のような領域において重大な脅威であることが証明されている。
本稿では,FGSM(Fast Gradient Sign Method)を用いて2つのCNNベースのNILMベースラインに入力シーケンスを摂動させる手法を提案する。
以上の結果から,これらのモデルの脆弱性,特にF1スコアの平均20%低下を示すS2Pモデルが示唆された。
- 参考スコア(独自算出の注目度): 2.389598109913753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-intrusive Load Monitoring (NILM) algorithms, commonly referred to as load
disaggregation algorithms, are fundamental tools for effective energy
management. Despite the success of deep models in load disaggregation, they
face various challenges, particularly those pertaining to privacy and security.
This paper investigates the sensitivity of prominent deep NILM baselines to
adversarial attacks, which have proven to be a significant threat in domains
such as computer vision and speech recognition. Adversarial attacks entail the
introduction of imperceptible noise into the input data with the aim of
misleading the neural network into generating erroneous outputs. We investigate
the Fast Gradient Sign Method (FGSM), a well-known adversarial attack, to
perturb the input sequences fed into two commonly employed CNN-based NILM
baselines: the Sequence-to-Sequence (S2S) and Sequence-to-Point (S2P) models.
Our findings provide compelling evidence for the vulnerability of these models,
particularly the S2P model which exhibits an average decline of 20\% in the
F1-score even with small amounts of noise. Such weakness has the potential to
generate profound implications for energy management systems in residential and
industrial sectors reliant on NILM models.
- Abstract(参考訳): 非侵入負荷モニタリング(Non-Inrusive Load Monitoring、NILM)アルゴリズムは、効率的なエネルギー管理のための基本的なツールである。
負荷分散における深いモデルの成功にもかかわらず、特にプライバシとセキュリティに関するさまざまな課題に直面している。
本稿では,コンピュータビジョンや音声認識などの領域において重要な脅威となっている敵攻撃に対するNILMベースラインの顕著な感受性について検討する。
敵攻撃は、ニューラルネットワークを誤った出力に誤解させる目的で、入力データに知覚不可能なノイズを導入する。
本研究では,cnnベースのnilmベースラインであるsequence-to-sequence(s2s)とsequence-to-point(s2p)モデルに対して,入力シーケンスを摂動させる手法であるfast gradient sign method(fgsm)について検討した。
これらのモデル,特にS2Pモデルでは,少ないノイズでもF1スコアの平均値が20倍の低下を示した。
このような弱さは、nilmモデルに依存する住宅および産業部門におけるエネルギー管理システムに重大な影響をもたらす可能性がある。
関連論文リスト
- FlowMur: A Stealthy and Practical Audio Backdoor Attack with Limited Knowledge [13.43804949744336]
FlowMurはステルスで実用的なオーディオバックドア攻撃で、限られた知識で起動できる。
2つのデータセットで実施された実験は、FlowMurがデジタルと物理の両方で高い攻撃性能を達成することを示した。
論文 参考訳(メタデータ) (2023-12-15T10:26:18Z) - Exploring the Vulnerabilities of Machine Learning and Quantum Machine
Learning to Adversarial Attacks using a Malware Dataset: A Comparative
Analysis [0.0]
機械学習(ML)と量子機械学習(QML)は、複雑な問題に対処する上で大きな可能性を示している。
敵攻撃に対する感受性は、これらのシステムをセキュリティに敏感なアプリケーションにデプロイする際の懸念を引き起こす。
本稿では,マルウェアデータセットを用いた敵攻撃に対するMLモデルとQNNモデルの脆弱性の比較分析を行う。
論文 参考訳(メタデータ) (2023-05-31T06:31:42Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Crafting Adversarial Examples for Deep Learning Based Prognostics
(Extended Version) [0.0]
State-of-the-the-the-art Prognostics and Health Management (PHM)システムには、Deep Learning (DL)アルゴリズムとInternet of Things (IoT)デバイスが組み込まれている。
本稿では,コンピュータビジョン領域からの逆例作成手法を採用し,PHM領域に適用する。
我々は、NASAのターボファンエンジンデータセットを用いて、敵攻撃の影響を評価する。
論文 参考訳(メタデータ) (2020-09-21T19:43:38Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z) - On the Matrix-Free Generation of Adversarial Perturbations for Black-Box
Attacks [1.199955563466263]
本稿では,ブラックボックス攻撃に適用可能な,このような対向的摂動の実用的な生成法を提案する。
攻撃者は、内部機能を起動したり、ディープニューラルネットワークの内部状態にアクセスしたりすることなく、そのような摂動を発生させる。
論文 参考訳(メタデータ) (2020-02-18T00:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。