論文の概要: Optimizing Privacy and Utility Tradeoffs for Group Interests Through Harmonization
- arxiv url: http://arxiv.org/abs/2404.05043v1
- Date: Sun, 7 Apr 2024 18:55:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 16:12:42.929072
- Title: Optimizing Privacy and Utility Tradeoffs for Group Interests Through Harmonization
- Title(参考訳): ハーモニゼーションによるグループ利害関係者のプライバシとユーティリティのトレードオフの最適化
- Authors: Bishwas Mandal, George Amariucai, Shuangqing Wei,
- Abstract要約: 我々は,信頼された第三者を通じて,2つのユーザグループ間の協調的なデータ共有機構を導入する。
このサードパーティは、当社の提案したデータ共有メカニズムを使って、両グループのデータを内部的に衛生化しています。
提案手法は,ユーティリティ機能の高精度な予測が可能でありながら,プライベート属性を正確に推測できないことを保証している。
- 参考スコア(独自算出の注目度): 2.54365580380609
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel problem formulation to address the privacy-utility tradeoff, specifically when dealing with two distinct user groups characterized by unique sets of private and utility attributes. Unlike previous studies that primarily focus on scenarios where all users share identical private and utility attributes and often rely on auxiliary datasets or manual annotations, we introduce a collaborative data-sharing mechanism between two user groups through a trusted third party. This third party uses adversarial privacy techniques with our proposed data-sharing mechanism to internally sanitize data for both groups and eliminates the need for manual annotation or auxiliary datasets. Our methodology ensures that private attributes cannot be accurately inferred while enabling highly accurate predictions of utility features. Importantly, even if analysts or adversaries possess auxiliary datasets containing raw data, they are unable to accurately deduce private features. Additionally, our data-sharing mechanism is compatible with various existing adversarially trained privacy techniques. We empirically demonstrate the effectiveness of our approach using synthetic and real-world datasets, showcasing its ability to balance the conflicting goals of privacy and utility.
- Abstract(参考訳): 本稿では,プライバシとユーティリティのトレードオフに対処する新たな問題の定式化を提案する。
すべてのユーザが同一のプライベート属性とユーティリティ属性を共有し、しばしば補助的なデータセットや手動アノテーションに依存しているシナリオに主にフォーカスする以前の研究とは異なり、信頼されたサードパーティを通じて2つのユーザーグループ間で協調的なデータ共有機構を導入する。
このサードパーティは、提案したデータ共有メカニズムを使って、両方のグループのデータを内部的に衛生化し、手動のアノテーションや補助的なデータセットを必要としないようにします。
提案手法は,ユーティリティ機能の高精度な予測が可能でありながら,プライベート属性を正確に推測できないことを保証している。
重要なことは、たとえアナリストや敵が生データを含む補助データセットを持っているとしても、それらは正確にプライベートな特徴を推測することができない。
さらに、我々のデータ共有メカニズムは、既存のさまざまな敵に訓練されたプライバシー技術と互換性がある。
合成および実世界のデータセットを使用して、我々のアプローチの有効性を実証的に実証し、プライバシとユーティリティの相反する目標のバランスをとる能力を示す。
関連論文リスト
- Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Privacy-preserving recommender system using the data collaboration analysis for distributed datasets [2.9061423802698565]
分散データセットのデータコラボレーション分析を用いて,プライバシ保護リコメンデータシステムのためのフレームワークを構築した。
2つのパブリックレーティングデータセットを用いた数値実験により、評価予測のためのプライバシ保護手法が分散データセットの予測精度を向上させることを示した。
論文 参考訳(メタデータ) (2024-05-24T07:43:00Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Protecting Global Properties of Datasets with Distribution Privacy
Mechanisms [8.19841678851784]
このようなデータの機密性を形式化するために、配信プライバシフレームワークをどのように適用できるかを示す。
次に、これらのメカニズムのプライバシユーティリティトレードオフを実証的に評価し、実用的なプロパティ推論攻撃に対して適用する。
論文 参考訳(メタデータ) (2022-07-18T03:54:38Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Mitigating Leakage from Data Dependent Communications in Decentralized
Computing using Differential Privacy [1.911678487931003]
本稿では,ユーザ側分散計算における通信データ依存性を制御する汎用実行モデルを提案する。
私たちの公式なプライバシー保証は、シャッフルによるプライバシーの増幅に関する最近の結果を活用し、拡張します。
論文 参考訳(メタデータ) (2021-12-23T08:30:17Z) - Combining Public and Private Data [7.975795748574989]
分散を最小化するために最適化された平均の混合推定器を導入する。
ユーザのプライバシニーズに比例してデータをサブサンプリングすることで、個人のプライバシを保護する手法よりも、当社のメカニズムの方が望ましい、と我々は主張する。
論文 参考訳(メタデータ) (2021-10-29T23:25:49Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。