論文の概要: Privacy-Preserving Billing for Local Energy Markets
- arxiv url: http://arxiv.org/abs/2404.15886v2
- Date: Tue, 17 Sep 2024 12:42:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 22:10:43.474436
- Title: Privacy-Preserving Billing for Local Energy Markets
- Title(参考訳): 地域エネルギー市場におけるプライバシ保護請求
- Authors: Eman Alqahtani, Mustafa A. Mustafa,
- Abstract要約: 本稿では,地域エネルギー市場(PBP-LEM)に対するプライバシ保護請求プロトコルを提案する。
PBP-LEMにより、市場団体のグループは、正しさを犠牲にすることなく、分散的でプライバシー保護的な方法で参加者の請求書を共同で計算することができる。
- 参考スコア(独自算出の注目度): 1.1823918493146686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a privacy-preserving billing protocol for local energy markets (PBP-LEM) that takes into account market participants' energy volume deviations from their bids. PBP-LEM enables a group of market entities to jointly compute participants' bills in a decentralized and privacy-preserving manner without sacrificing correctness. It also mitigates risks on individuals' privacy arising from any potential internal collusion. We first propose an efficient and privacy-preserving individual billing scheme, achieving information-theoretic security, which serves as a building block. PBP-LEM utilizes this scheme, along with other techniques such as multiparty computation, inner product functional encryption and Pedersen commitments to ensure data confidentiality and accuracy. Additionally, we present three approaches, resulting in different levels of privacy protection and performance. We prove that the protocol meets its security and privacy requirements and is feasible for deployment in real LEMs: bills can be computed in less than five minutes for 4,000 users using the most computationally intensive approach, and in just 0.18 seconds using the least intensive one.
- Abstract(参考訳): 本稿では,地域エネルギー市場(PBP-LEM)に対するプライバシ保護請求プロトコルを提案する。
PBP-LEMにより、市場団体のグループは、正しさを犠牲にすることなく、分散的でプライバシー保護的な方法で参加者の請求書を共同で計算することができる。
また、内部共謀の可能性から生じる個人のプライバシーに対するリスクを軽減している。
まず,ビルディングブロックとして機能する情報理論セキュリティを実現するための,効率的かつプライバシ保護の個別請求方式を提案する。
PBP-LEMは、マルチパーティ計算、内部製品機能暗号化、ペデルセンのコミットメントなどの他の手法とともに、この方式を利用してデータの機密性と正確性を保証する。
さらに、我々は3つのアプローチを提案し、結果としてプライバシー保護とパフォーマンスのレベルが異なる。
我々は,このプロトコルがセキュリティとプライバシの要件を満たしていることを証明し,実際のLEMへの展開を可能にする。最も計算集約的なアプローチで4000ユーザに対して5分以内で請求書を計算し,最も計算集約的なアプローチでわずか0.18秒で請求書を計算することができる。
関連論文リスト
- The Communication-Friendly Privacy-Preserving Machine Learning against Malicious Adversaries [14.232901861974819]
プライバシー保護機械学習(PPML)は、機密情報を保護しながらセキュアなデータ分析を可能にする革新的なアプローチである。
セキュアな線形関数評価のための効率的なプロトコルを導入する。
我々は、このプロトコルを拡張して、線形層と非線形層を扱い、幅広い機械学習モデルとの互換性を確保する。
論文 参考訳(メタデータ) (2024-11-14T08:55:14Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Privacy Preserving Multi-Agent Reinforcement Learning in Supply Chains [5.436598805836688]
本稿では,サプライチェーンの文脈におけるマルチエージェント強化学習(MARL)のプライバシー問題に対処する。
本稿では,MARL設定におけるセキュアなマルチパーティ計算フレームワークを利用したゲーム理論,プライバシ関連機構を提案する。
プライバシ保護方式で浮動小数点演算を行う学習機構を提案する。
論文 参考訳(メタデータ) (2023-12-09T21:25:21Z) - Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores [19.54818218429241]
セキュアなマルチパーティ計算をSolidと統合するためのモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法を示す。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Secure Federated Learning for Residential Short Term Load Forecasting [0.34123736336071864]
本稿では,スマートメーターデータを用いた短期需要予測のための協調機械学習手法について検討する。
評価された手法は、分散的で協力的でプライベートなシステムの方向において、従来の集中型アプローチをどのように投影できるかを探求するいくつかのシナリオを考慮に入れている。
論文 参考訳(メタデータ) (2021-11-17T17:27:59Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - MPC-enabled Privacy-Preserving Neural Network Training against Malicious
Attack [44.50542274828587]
セキュアなニューラルネットワークトレーニングのための効率的な$n$-partyプロトコルを構築するためのアプローチを提案する。
アクティブにセキュアなニューラルネットワークトレーニングでは、LANおよびWAN設定で約2倍と2.7倍の安価な効率オーバーヘッドが発生します。
さらに、整数環 $mathbbZ_N$ 上で定義された加法的共有を有限体 $mathbbZ_Q$ 上の加法的共有に安全に変換できるスキームを提案する。
論文 参考訳(メタデータ) (2020-07-24T15:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。