論文の概要: Preserving Smart Grid Integrity: A Differential Privacy Framework for Secure Detection of False Data Injection Attacks in the Smart Grid
- arxiv url: http://arxiv.org/abs/2403.02324v1
- Date: Mon, 4 Mar 2024 18:55:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-17 17:01:02.792080
- Title: Preserving Smart Grid Integrity: A Differential Privacy Framework for Secure Detection of False Data Injection Attacks in the Smart Grid
- Title(参考訳): スマートグリッド統合の保存:スマートグリッドにおける偽データ注入攻撃のセキュア検出のための差分プライバシーフレームワーク
- Authors: Nikhil Ravi, Anna Scaglione, Sean Peisert, Parth Pradhan,
- Abstract要約: 本稿では,FDI(False Data Injections)によるシステム異常や悪いデータを検出するために,電力測定をクエリするフレームワークを提案する。
我々のDPアプローチは,不信頼な第三者が異常の仮説を検証できるようにしながら,消費とシステムマトリックスデータを隠蔽する。
本稿では,電力注入やシステムマトリクスに関するプライベート情報を明らかにしない新しいDPチ方形ノイズ機構を提案する。
- 参考スコア(独自算出の注目度): 4.021993915403885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a framework based on differential privacy (DP) for querying electric power measurements to detect system anomalies or bad data caused by false data injections (FDIs). Our DP approach conceals consumption and system matrix data, while simultaneously enabling an untrusted third party to test hypotheses of anomalies, such as an FDI attack, by releasing a randomized sufficient statistic for hypothesis-testing. We consider a measurement model corrupted by Gaussian noise and a sparse noise vector representing the attack, and we observe that the optimal test statistic is a chi-square random variable. To detect possible attacks, we propose a novel DP chi-square noise mechanism that ensures the test does not reveal private information about power injections or the system matrix. The proposed framework provides a robust solution for detecting FDIs while preserving the privacy of sensitive power system data.
- Abstract(参考訳): 本稿では,FDI(False Data Injection)によるシステム異常や悪いデータを検出するために,電力測定を問合せするための差分プライバシ(DP)に基づくフレームワークを提案する。
提案手法では,信頼できない第三者がFDI攻撃などの異常仮説を検証できると同時に,仮説検証に十分な統計データを無作為にリリースすることで,消費とシステムマトリックスデータを隠蔽する。
本稿では,ガウス雑音による測定モデルと攻撃を表すスパース雑音ベクトルを考察し,最適検定統計量はカイ二乗確率変数であることを示した。
攻撃の可能性を検出するため,電力注入やシステムマトリックスに関するプライベート情報を明らかにしない新しいDPチ方形ノイズ機構を提案する。
提案するフレームワークは、機密性のある電力系統データのプライバシーを維持しながら、FDIを検出する堅牢なソリューションを提供する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - PSBD: Prediction Shift Uncertainty Unlocks Backdoor Detection [57.571451139201855]
予測シフトバックドア検出(英: Prediction Shift Backdoor Detection、PSBD)は、ディープニューラルネットワークにおけるバックドアサンプルを識別する新しい手法である。
PSBDは興味深い予測シフト(PS)現象によって動機付けられており、クリーンなデータに対する有害なモデルの予測は、しばしば真のラベルから別のラベルへとシフトする。
PSBDは、モデル推論中にドロップアウト層をオン/オフする際の確率値のばらつきである予測シフト不確実性(PSU)を計算することで、バックドアトレーニングサンプルを特定する。
論文 参考訳(メタデータ) (2024-06-09T15:31:00Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Sequential Kernelized Independence Testing [101.22966794822084]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - The power of private likelihood-ratio tests for goodness-of-fit in
frequency tables [1.713291434132985]
周波数表の適合性に関するプライバシー保護テストについて検討する。
本研究は,検査の統計的意義の喪失を避けるため,摂動を考慮に入れることの重要性を示す。
本研究は,プライバシ保護型LRテストにおいて,周波数表に適合性を示すための厳格な治療法として初めて提示するものである。
論文 参考訳(メタデータ) (2021-09-20T15:30:42Z) - Bad-Data Sequence Detection for Power System State Estimation via
ICA-GAN [5.990174495635325]
電力系統における不良データシーケンスの検出に対する深層学習手法を提案する。
悪いデータモデルは、任意の自然データおよび逆データ異常を含む非パラメトリックである。
異常のないシステム操作におけるデータの確率分布は、非パラメトリック、未知、歴史的トレーニングサンプルである。
論文 参考訳(メタデータ) (2020-12-09T16:53:56Z) - Anomaly Detection in Unsupervised Surveillance Setting Using Ensemble of
Multimodal Data with Adversarial Defense [0.3867363075280543]
本稿では,実時間画像とIMUセンサデータの異常度を推定するアンサンブル検出機構を提案する。
提案手法は,IEEE SP Cup-2020データセットで97.8%の精度で良好に動作する。
論文 参考訳(メタデータ) (2020-07-17T20:03:02Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。