論文の概要: A Blackbox Model Is All You Need to Breach Privacy: Smart Grid
Forecasting Models as a Use Case
- arxiv url: http://arxiv.org/abs/2309.01523v1
- Date: Mon, 4 Sep 2023 11:07:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-09-06 18:52:39.185941
- Title: A Blackbox Model Is All You Need to Breach Privacy: Smart Grid
Forecasting Models as a Use Case
- Title(参考訳): ブラックボックスモデルは、プライバシーを侵害するために必要なすべてである: ユースケースとしてのスマートグリッド予測モデル
- Authors: Hussein Aly, Abdulaziz Al-Ali, Abdullah Al-Ali, Qutaibah Malluhi
- Abstract要約: LSTMモデルへのブラックボックスアクセスは、データ自体へのアクセスに匹敵する膨大な量の情報を明らかにすることができることを示す。
これは、データと同じレベルで予測モデルを保護することの重要性を強調します。
- 参考スコア(独自算出の注目度): 0.7714988183435832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the potential privacy risks associated with
forecasting models, with specific emphasis on their application in the context
of smart grids. While machine learning and deep learning algorithms offer
valuable utility, concerns arise regarding their exposure of sensitive
information. Previous studies have focused on classification models,
overlooking risks associated with forecasting models. Deep learning based
forecasting models, such as Long Short Term Memory (LSTM), play a crucial role
in several applications including optimizing smart grid systems but also
introduce privacy risks. Our study analyzes the ability of forecasting models
to leak global properties and privacy threats in smart grid systems. We
demonstrate that a black box access to an LSTM model can reveal a significant
amount of information equivalent to having access to the data itself (with the
difference being as low as 1% in Area Under the ROC Curve). This highlights the
importance of protecting forecasting models at the same level as the data.
- Abstract(参考訳): 本稿では,予測モデルに関連する潜在的なプライバシリスクを,スマートグリッドのコンテキストにおけるアプリケーションに特に重点を置いて検討する。
機械学習とディープラーニングアルゴリズムは有用なユーティリティを提供するが、センシティブな情報の露出に関する懸念が生じる。
これまでの研究では分類モデルに注目し、予測モデルに関連するリスクを見下ろしている。
長期短期記憶(lstm)のようなディープラーニングベースの予測モデルは、スマートグリッドシステムの最適化を含むいくつかのアプリケーションにおいて重要な役割を果たすが、プライバシリスクも引き起こす。
本研究は,スマートグリッドシステムにおけるグローバルプロパティとプライバシの脅威を漏らすモデル予測能力を解析する。
LSTMモデルへのブラックボックスアクセスは、データ自体へのアクセスに匹敵する膨大な量の情報を明らかにすることができる(この差はROC曲線の下では1%以下である)。
これは、データと同じレベルで予測モデルを保護することの重要性を強調します。
関連論文リスト
- P-MIA: A Profiled-Based Membership Inference Attack on Cognitive Diagnosis Models [22.027021891488683]
本論文は,認知診断モデル(CDM)に対するMIA(Community Inference attack)を系統的に調査した最初の事例である。
これらのプラットフォームの説明可能性を利用した,斬新で現実的なグレーボックス脅威モデルを提案する。
モデルの最終予測確率と内部知識状態ベクトルを特徴とするプロファイルベースのMIAフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-06T01:53:04Z) - Neural Breadcrumbs: Membership Inference Attacks on LLMs Through Hidden State and Attention Pattern Analysis [9.529147118376464]
メンバーシップ推論攻撃(MIA)は、特定のデータが機械学習モデルのトレーニングに使用されたかどうかを明らかにする。
我々の研究は、内部表現を単に出力ではなく検査することで、メンバーシップ推論信号に対するさらなる洞察を与えることができるかを探る。
本研究は,出力に基づく信号が保護された場合でも,内部モデル行動がトレーニングデータの露出の側面を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2025-09-05T19:05:49Z) - Intellectual Property in Graph-Based Machine Learning as a Service: Attacks and Defenses [57.9371204326855]
この調査は、GMLモデルとグラフ構造化データの両方のレベルで、脅威と防御の最初の分類を体系的に導入する。
本稿では,IP保護手法の有効性を評価し,ベンチマークデータセットのキュレートしたセットを導入し,その適用範囲と今後の課題について論じるシステム評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-27T07:37:52Z) - When Better Features Mean Greater Risks: The Performance-Privacy Trade-Off in Contrastive Learning [9.660010886245155]
本稿では,エンコーダモデルを対象としたMIA攻撃によるプライバシの脅威を系統的に検討する。
本稿では,Lp-Norm Likelihood Attack (LpLA) と呼ばれる特徴ベクトルのpノルムに基づく新しいメンバシップ推論攻撃法を提案する。
論文 参考訳(メタデータ) (2025-06-06T05:03:29Z) - New Emerged Security and Privacy of Pre-trained Model: a Survey and Outlook [54.24701201956833]
セキュリティとプライバシーの問題は、事前訓練されたモデルに対するユーザーの信頼を損なう。
現在の文献は、事前訓練されたモデルに対する攻撃と防御の明確な分類を欠いている。
この分類法は、攻撃と防御をNo-Change、Input-Change、Model-Changeアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-12T10:15:33Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Whispers in the Machine: Confidentiality in LLM-integrated Systems [7.893457690926516]
大規模言語モデル(LLM)は、外部ツールや商用サービスをLLM統合システムに拡張する傾向にある。
操作された統合はモデルを悪用し、他のインターフェースを通じてアクセスされた機密データを侵害することができる。
LLM統合システムにおける機密性リスクを評価するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2024-02-10T11:07:24Z) - Privacy and Security Implications of Cloud-Based AI Services : A Survey [4.1964397179107085]
この記事では、今日のクラウドエコシステムにおけるプライバシとセキュリティの状況について詳述する。
機械学習モデルによってもたらされるリスクに対処する上で、ギャップがあることを識別する。
論文 参考訳(メタデータ) (2024-01-31T13:30:20Z) - Privacy-Preserving Load Forecasting via Personalized Model Obfuscation [4.420464017266168]
本稿では,異種データを用いたフェデレーション学習で訓練した短期負荷予測モデルの性能課題について述べる。
提案するアルゴリズムであるプライバシー保護フェデレートラーニング(PPFL)では,各スマートメータでのローカライズトレーニングのためのパーソナライズレイヤが組み込まれている。
論文 参考訳(メタデータ) (2023-11-21T03:03:10Z) - An Interpretable Systematic Review of Machine Learning Models for
Predictive Maintenance of Aircraft Engine [0.12289361708127873]
本稿では,航空機エンジンの保守性を予測するため,各種機械学習モデルと深層学習モデルの解釈可能なレビューを行う。
本研究では, LSTM, Bi-LSTM, RNN, Bi-RNN GRU, Random Forest, KNN, Naive Bayes, Gradient Boostingを用いて, 航空機のエンジン故障の予測にセンサデータを用いた。
97.8%、97.14%、96.42%はGRU、Bi-LSTM、LSTMによってそれぞれ得られる。
論文 参考訳(メタデータ) (2023-09-23T08:54:10Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Survey: Leakage and Privacy at Inference Time [59.957056214792665]
公開されている機械学習(ML)モデルからのデータの漏洩は、ますます重要になっている分野である。
公開モデルの最も可能性の高いシナリオとして、推論時のリークに注目します。
本稿では,不随意・不随意の漏洩,防御,そして現在利用可能な評価指標と応用にまたがる分類法を提案する。
論文 参考訳(メタデータ) (2021-07-04T12:59:16Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。