論文の概要: Mitigating Leakage from Data Dependent Communications in Decentralized
Computing using Differential Privacy
- arxiv url: http://arxiv.org/abs/2112.12411v1
- Date: Thu, 23 Dec 2021 08:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-25 00:05:23.924849
- Title: Mitigating Leakage from Data Dependent Communications in Decentralized
Computing using Differential Privacy
- Title(参考訳): 差分プライバシーを用いた分散コンピューティングにおけるデータ依存通信からの漏洩の軽減
- Authors: Riad Ladjel, Nicolas Anciaux, Aur\'elien Bellet, Guillaume Scerri
- Abstract要約: 本稿では,ユーザ側分散計算における通信データ依存性を制御する汎用実行モデルを提案する。
私たちの公式なプライバシー保証は、シャッフルによるプライバシーの増幅に関する最近の結果を活用し、拡張します。
- 参考スコア(独自算出の注目度): 1.911678487931003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Imagine a group of citizens willing to collectively contribute their personal
data for the common good to produce socially useful information, resulting from
data analytics or machine learning computations. Sharing raw personal data with
a centralized server performing the computation could raise concerns about
privacy and a perceived risk of mass surveillance. Instead, citizens may trust
each other and their own devices to engage into a decentralized computation to
collaboratively produce an aggregate data release to be shared. In the context
of secure computing nodes exchanging messages over secure channels at runtime,
a key security issue is to protect against external attackers observing the
traffic, whose dependence on data may reveal personal information. Existing
solutions are designed for the cloud setting, with the goal of hiding all
properties of the underlying dataset, and do not address the specific privacy
and efficiency challenges that arise in the above context. In this paper, we
define a general execution model to control the data-dependence of
communications in user-side decentralized computations, in which differential
privacy guarantees for communication patterns in global execution plans can be
analyzed by combining guarantees obtained on local clusters of nodes. We
propose a set of algorithms which allow to trade-off between privacy, utility
and efficiency. Our formal privacy guarantees leverage and extend recent
results on privacy amplification by shuffling. We illustrate the usefulness of
our proposal on two representative examples of decentralized execution plans
with data-dependent communications.
- Abstract(参考訳): データ分析や機械学習の計算の結果、社会的に有用な情報を生み出すための共通の利益のために、個人データをまとめて貢献しようとする市民のグループを想像してください。
計算を行う中央サーバと生の個人データを共有することは、プライバシーと大量監視のリスクを懸念させる可能性がある。
代わりに、市民は互いに信頼し、自身のデバイスが分散計算に関わり、共有する集約データリリースを共同生成することができる。
セキュアなコンピューティングノードが実行時にセキュアなチャネル上でメッセージを交換する状況において、重要なセキュリティ問題はトラフィックを監視している外部攻撃者から保護することであり、データに依存すると個人情報が明らかになる可能性がある。
既存のソリューションはクラウド設定用に設計されており、基盤となるデータセットのすべてのプロパティを隠すことを目的としている。
本稿では,グローバル実行計画における通信パターンに対する差分プライバシー保証を,ノードのローカルクラスタで得られる保証を組み合わせることで解析できる,ユーザ側分散計算における通信データ依存を制御する汎用実行モデルを定義する。
プライバシ,ユーティリティ,効率のトレードオフを可能にするアルゴリズムのセットを提案する。
我々の公式なプライバシー保証は、シャッフルによるプライバシー強化に関する最近の結果を活用および拡張します。
データ依存型通信を用いた分散実行計画の2つの代表的な例について,本提案の有効性について述べる。
関連論文リスト
- Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Privacy Preserving Semi-Decentralized Mean Estimation over Intermittently-Connected Networks [59.43433767253956]
信頼できない無線ネットワークの異なるノードに分散するベクトルの平均をプライベートに推定する問題を考える。
半分散的なセットアップでは、ノードは隣人と協力してローカルコンセンサスを計算し、中央サーバにリレーする。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2024-06-06T06:12:15Z) - CaPS: Collaborative and Private Synthetic Data Generation from Distributed Sources [5.898893619901382]
分散データホルダから合成データの協調的かつプライベートな生成のためのフレームワークを提案する。
我々は信頼されたアグリゲータをセキュアなマルチパーティ計算プロトコルに置き換え、差分プライバシー(DP)を介してプライバシを出力する。
MWEM+PGMおよびAIMの最先端選択測度生成アルゴリズムに対するアプローチの適用性とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2024-02-13T17:26:32Z) - Using Decentralized Aggregation for Federated Learning with Differential
Privacy [0.32985979395737774]
フェデレートラーニング(FL)は、データをローカルノードに保持することで、ある程度のプライバシーを提供する。
本研究は、ベンチマークデータセットを用いて、差分プライバシー(DP)を用いたFL実験環境をデプロイする。
論文 参考訳(メタデータ) (2023-11-27T17:02:56Z) - Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores [19.54818218429241]
セキュアなマルチパーティ計算をSolidと統合するためのモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法を示す。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - Generalizing Differentially Private Decentralized Deep Learning with Multi-Agent Consensus [11.414398732656839]
本稿では,分散ディープラーニングに差分プライバシーを組み込んだフレームワークを提案する。
本稿では,このフレームワークから派生したアルゴリズムの収束保証を証明し,その実用性を示す。
論文 参考訳(メタデータ) (2023-06-24T07:46:00Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。