論文の概要: Bi-Level Poisoning Attack Model and Countermeasure for Appliance
Consumption Data of Smart Homes
- arxiv url: http://arxiv.org/abs/2107.02897v1
- Date: Thu, 1 Jul 2021 00:40:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-11 11:58:17.594697
- Title: Bi-Level Poisoning Attack Model and Countermeasure for Appliance
Consumption Data of Smart Homes
- Title(参考訳): スマートホームのアプライアンス消費データに対するバイレベルポジショニング攻撃モデルと対策
- Authors: Mustain Billah, Adnan Anwar, Ziaur Rahman and Syed Md. Galib
- Abstract要約: 本稿では,家電製品から得られるエネルギー使用量の回帰モデルにバイレベル中毒が及ぼす影響について検討する。
攻撃と防御はベンチマークデータセットで評価される。
- 参考スコア(独自算出の注目度): 1.433758865948252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate building energy prediction is useful in various applications
starting from building energy automation and management to optimal storage
control. However, vulnerabilities should be considered when designing building
energy prediction models, as intelligent attackers can deliberately influence
the model performance using sophisticated attack models. These may consequently
degrade the prediction accuracy, which may affect the efficiency and
performance of the building energy management systems. In this paper, we
investigate the impact of bi-level poisoning attacks on regression models of
energy usage obtained from household appliances. Furthermore, an effective
countermeasure against the poisoning attacks on the prediction model is
proposed in this paper. Attacks and defenses are evaluated on a benchmark
dataset. Experimental results show that an intelligent cyber-attacker can
poison the prediction model to manipulate the decision. However, our proposed
solution successfully ensures defense against such poisoning attacks
effectively compared to other benchmark techniques.
- Abstract(参考訳): ビルドエネルギーの正確な予測は、ビルドエネルギーの自動化や管理から最適なストレージ制御に至るまで、様々なアプリケーションで有用である。
しかし、インテリジェントアタッカーは高度な攻撃モデルを使用して意図的にモデル性能に影響を与える可能性があるため、エネルギー予測モデルを設計する際に脆弱性を考慮する必要がある。
これにより予測精度が低下し、建築エネルギー管理システムの効率と性能に影響を与える可能性がある。
本稿では,家電製品から得られるエネルギー利用の回帰モデルに対するバイレベル中毒攻撃の影響について検討する。
さらに, 本論文では, 予測モデルに対する毒殺対策を効果的に提案する。
攻撃と防御はベンチマークデータセットで評価される。
実験結果から,知的サイバー攻撃者が予測モデルに毒を加えて判断を操作できることが示唆された。
しかし,提案手法は,他のベンチマーク手法と比較して効果的に防毒効果を確保できる。
関連論文リスト
- Adversarial Attacks and Defenses in Multivariate Time-Series Forecasting for Smart and Connected Infrastructures [0.9217021281095907]
時系列予測における敵攻撃の影響について検討する。
トレーニングプロセスへの入力を有害にするために、未ターゲットのホワイトボックスアタックを採用し、効果的にモデルを誤解させる。
これらの攻撃の有効性を実証し、敵の訓練とモデル硬化による堅牢なモデルを構築した。
論文 参考訳(メタデータ) (2024-08-27T08:44:31Z) - Anomaly-based Framework for Detecting Power Overloading Cyberattacks in Smart Grid AMI [5.5672938329986845]
本稿では回帰決定木に基づく2段階異常検出フレームワークを提案する。
導入された検出手法は、エネルギー消費の規則性と予測可能性を利用して参照消費パターンを構築する。
アイルランドの500人の顧客を対象とした,実世界の公用エネルギー消費データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2024-07-03T16:52:23Z) - GAN-GRID: A Novel Generative Attack on Smart Grid Stability Prediction [53.2306792009435]
我々は,現実の制約に合わせたスマートグリッドの安定性予測システムを対象とした,新たな敵攻撃GAN-GRIDを提案する。
以上の結果から,データやモデル知識を欠いた,安定度モデルのみに武装した敵が,攻撃成功率0.99の安定度でデータを作成できることが判明した。
論文 参考訳(メタデータ) (2024-05-20T14:43:46Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Adversarial Backdoor Attack by Naturalistic Data Poisoning on Trajectory
Prediction in Autonomous Driving [18.72382517467458]
本稿では,軌道予測モデルに対する新たな逆バックドア攻撃を提案する。
我々の攻撃は、自然主義的、従って、新しい2段階のアプローチで作られた毒のサンプルを盗むことによって、訓練時に被害者に影響を及ぼす。
提案手法は,予測モデルの性能を著しく損なうおそれがあり,攻撃効果が高いことを示す。
論文 参考訳(メタデータ) (2023-06-27T19:15:06Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - A Practical Adversarial Attack on Contingency Detection of Smart Energy
Systems [0.0]
本稿では,エネルギーシステムの動的制御を実質的に損なうことのできる,革新的な敵攻撃モデルを提案する。
また、深層強化学習(RL)技術を用いて、提案した敵攻撃モデルの展開を最適化する。
論文 参考訳(メタデータ) (2021-09-13T23:11:56Z) - Poisoning Attacks on Algorithmic Fairness [14.213638219685656]
本稿では,アルゴリズムの公正性に対する攻撃を害する最適化フレームワークを提案する。
我々は,データ中の異なるグループ間の分類格差の導入を目的とした,勾配に基づく中毒攻撃を開発した。
我々の発見は、異なるシナリオにおけるアルゴリズムフェアネスをターゲットとした、全く新しい敵攻撃セットの定義への道を開いたと信じている。
論文 参考訳(メタデータ) (2020-04-15T08:07:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。