論文の概要: A Blackbox Model Is All You Need to Breach Privacy: Smart Grid
Forecasting Models as a Use Case
- arxiv url: http://arxiv.org/abs/2309.01523v1
- Date: Mon, 4 Sep 2023 11:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 18:52:39.185941
- Title: A Blackbox Model Is All You Need to Breach Privacy: Smart Grid
Forecasting Models as a Use Case
- Title(参考訳): ブラックボックスモデルは、プライバシーを侵害するために必要なすべてである: ユースケースとしてのスマートグリッド予測モデル
- Authors: Hussein Aly, Abdulaziz Al-Ali, Abdullah Al-Ali, Qutaibah Malluhi
- Abstract要約: LSTMモデルへのブラックボックスアクセスは、データ自体へのアクセスに匹敵する膨大な量の情報を明らかにすることができることを示す。
これは、データと同じレベルで予測モデルを保護することの重要性を強調します。
- 参考スコア(独自算出の注目度): 0.7714988183435832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the potential privacy risks associated with
forecasting models, with specific emphasis on their application in the context
of smart grids. While machine learning and deep learning algorithms offer
valuable utility, concerns arise regarding their exposure of sensitive
information. Previous studies have focused on classification models,
overlooking risks associated with forecasting models. Deep learning based
forecasting models, such as Long Short Term Memory (LSTM), play a crucial role
in several applications including optimizing smart grid systems but also
introduce privacy risks. Our study analyzes the ability of forecasting models
to leak global properties and privacy threats in smart grid systems. We
demonstrate that a black box access to an LSTM model can reveal a significant
amount of information equivalent to having access to the data itself (with the
difference being as low as 1% in Area Under the ROC Curve). This highlights the
importance of protecting forecasting models at the same level as the data.
- Abstract(参考訳): 本稿では,予測モデルに関連する潜在的なプライバシリスクを,スマートグリッドのコンテキストにおけるアプリケーションに特に重点を置いて検討する。
機械学習とディープラーニングアルゴリズムは有用なユーティリティを提供するが、センシティブな情報の露出に関する懸念が生じる。
これまでの研究では分類モデルに注目し、予測モデルに関連するリスクを見下ろしている。
長期短期記憶(lstm)のようなディープラーニングベースの予測モデルは、スマートグリッドシステムの最適化を含むいくつかのアプリケーションにおいて重要な役割を果たすが、プライバシリスクも引き起こす。
本研究は,スマートグリッドシステムにおけるグローバルプロパティとプライバシの脅威を漏らすモデル予測能力を解析する。
LSTMモデルへのブラックボックスアクセスは、データ自体へのアクセスに匹敵する膨大な量の情報を明らかにすることができる(この差はROC曲線の下では1%以下である)。
これは、データと同じレベルで予測モデルを保護することの重要性を強調します。
関連論文リスト
- New Emerged Security and Privacy of Pre-trained Model: a Survey and Outlook [54.24701201956833]
セキュリティとプライバシーの問題は、事前訓練されたモデルに対するユーザーの信頼を損なう。
現在の文献は、事前訓練されたモデルに対する攻撃と防御の明確な分類を欠いている。
この分類法は、攻撃と防御をNo-Change、Input-Change、Model-Changeアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-12T10:15:33Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Whispers in the Machine: Confidentiality in LLM-integrated Systems [7.893457690926516]
大規模言語モデル(LLM)は、外部ツールや商用サービスをLLM統合システムに拡張する傾向にある。
操作された統合はモデルを悪用し、他のインターフェースを通じてアクセスされた機密データを侵害することができる。
LLM統合システムにおける機密性リスクを評価するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2024-02-10T11:07:24Z) - Privacy and Security Implications of Cloud-Based AI Services : A Survey [4.1964397179107085]
この記事では、今日のクラウドエコシステムにおけるプライバシとセキュリティの状況について詳述する。
機械学習モデルによってもたらされるリスクに対処する上で、ギャップがあることを識別する。
論文 参考訳(メタデータ) (2024-01-31T13:30:20Z) - Privacy-Preserving Load Forecasting via Personalized Model Obfuscation [4.420464017266168]
本稿では,異種データを用いたフェデレーション学習で訓練した短期負荷予測モデルの性能課題について述べる。
提案するアルゴリズムであるプライバシー保護フェデレートラーニング(PPFL)では,各スマートメータでのローカライズトレーニングのためのパーソナライズレイヤが組み込まれている。
論文 参考訳(メタデータ) (2023-11-21T03:03:10Z) - An Interpretable Systematic Review of Machine Learning Models for
Predictive Maintenance of Aircraft Engine [0.12289361708127873]
本稿では,航空機エンジンの保守性を予測するため,各種機械学習モデルと深層学習モデルの解釈可能なレビューを行う。
本研究では, LSTM, Bi-LSTM, RNN, Bi-RNN GRU, Random Forest, KNN, Naive Bayes, Gradient Boostingを用いて, 航空機のエンジン故障の予測にセンサデータを用いた。
97.8%、97.14%、96.42%はGRU、Bi-LSTM、LSTMによってそれぞれ得られる。
論文 参考訳(メタデータ) (2023-09-23T08:54:10Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Survey: Leakage and Privacy at Inference Time [59.957056214792665]
公開されている機械学習(ML)モデルからのデータの漏洩は、ますます重要になっている分野である。
公開モデルの最も可能性の高いシナリオとして、推論時のリークに注目します。
本稿では,不随意・不随意の漏洩,防御,そして現在利用可能な評価指標と応用にまたがる分類法を提案する。
論文 参考訳(メタデータ) (2021-07-04T12:59:16Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。