論文の概要: Privacy-Preserving Optimal Parameter Selection for Collaborative Clustering
- arxiv url: http://arxiv.org/abs/2406.05545v1
- Date: Sat, 8 Jun 2024 18:21:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 19:16:08.531928
- Title: Privacy-Preserving Optimal Parameter Selection for Collaborative Clustering
- Title(参考訳): 協調クラスタリングのためのプライバシー保護最適パラメータ選択
- Authors: Maryam Ghasemian, Erman Ayday,
- Abstract要約: 私たちは、複数のデータオーナがデータを結合するコラボレーティブフレームワークにおける、重要なクラスタリングアルゴリズムに注目しています。
半信頼できるサーバは、最も適切なクラスタリングアルゴリズムとそのパラメータを推奨する。
調査の結果,プライバシパラメータ(epsilon$)がサーバのレコメンデーションに最小限に影響を及ぼすが,$epsilon$の増加はメンバシップ推論攻撃のリスクを増大させることがわかった。
- 参考スコア(独自算出の注目度): 2.107610564835429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study investigates the optimal selection of parameters for collaborative clustering while ensuring data privacy. We focus on key clustering algorithms within a collaborative framework, where multiple data owners combine their data. A semi-trusted server assists in recommending the most suitable clustering algorithm and its parameters. Our findings indicate that the privacy parameter ($\epsilon$) minimally impacts the server's recommendations, but an increase in $\epsilon$ raises the risk of membership inference attacks, where sensitive information might be inferred. To mitigate these risks, we implement differential privacy techniques, particularly the Randomized Response mechanism, to add noise and protect data privacy. Our approach demonstrates that high-quality clustering can be achieved while maintaining data confidentiality, as evidenced by metrics such as the Adjusted Rand Index and Silhouette Score. This study contributes to privacy-aware data sharing, optimal algorithm and parameter selection, and effective communication between data owners and the server.
- Abstract(参考訳): 本研究では、データプライバシを確保しつつ、協調クラスタリングのためのパラメータの最適選択について検討する。
私たちは、複数のデータオーナがデータを結合するコラボレーティブフレームワークにおける、重要なクラスタリングアルゴリズムに注目しています。
半信頼できるサーバは、最も適切なクラスタリングアルゴリズムとそのパラメータを推奨する。
以上の結果から,プライバシパラメータ(\epsilon$)がサーバのレコメンデーションに最小限の影響を与えることが示唆されたが,$\epsilon$の増加は,機密情報が推測される可能性のあるメンバシップ推論攻撃のリスクを増大させる。
これらのリスクを軽減するために、差分プライバシー技術、特にランダム化応答機構を実装し、ノイズを追加し、データのプライバシを保護する。
提案手法は,Adjusted Rand IndexやSilhouette Scoreといった指標が示すように,データの機密性を維持しながら高品質なクラスタリングを実現することができることを示す。
本研究は,プライバシを意識したデータ共有,最適なアルゴリズムとパラメータ選択,データ所有者とサーバ間の効果的なコミュニケーションに寄与する。
関連論文リスト
- DP-CDA: An Algorithm for Enhanced Privacy Preservation in Dataset Synthesis Through Randomized Mixing [0.8739101659113155]
有効なデータパブリッシングアルゴリズムであるemphDP-CDAを導入する。
提案アルゴリズムは、クラス固有の方法でデータをランダムに混合し、プライバシー保証を確保するために慎重に調整されたランダム性を誘導することにより、合成データセットを生成する。
以上の結果から,DP-CDAを用いた合成データセットは,同一のプライバシー要件下であっても,従来のデータパブリッシングアルゴリズムで生成したデータセットよりも優れた実用性が得られることが示唆された。
論文 参考訳(メタデータ) (2024-11-25T06:14:06Z) - Privacy-preserving recommender system using the data collaboration analysis for distributed datasets [2.9061423802698565]
分散データセットのデータコラボレーション分析を用いて,プライバシ保護リコメンデータシステムのためのフレームワークを構築した。
2つのパブリックレーティングデータセットを用いた数値実験により、評価予測のためのプライバシ保護手法が分散データセットの予測精度を向上させることを示した。
論文 参考訳(メタデータ) (2024-05-24T07:43:00Z) - Synergizing Privacy and Utility in Data Analytics Through Advanced Information Theorization [2.28438857884398]
本稿では,高次元画像データに適したノイズ注入技術,ロバストな特徴抽出のための変分オートエンコーダ(VAE),構造化データプライバシに最適化された期待最大化(EM)アプローチの3つの高度なアルゴリズムを紹介する。
本手法は,機密属性と変換データ間の相互情報を著しく低減し,プライバシーを向上する。
この研究は、さまざまなデータタイプにまたがってプライバシ保護アルゴリズムをデプロイするための柔軟で効果的な戦略を提供することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-24T22:58:42Z) - Beyond Random Noise: Insights on Anonymization Strategies from a Latent
Bandit Study [44.94720642208655]
本稿では,レコメンデーションタスクの知識を共有する学習シナリオにおけるプライバシの問題について検討する。
我々は、プライバシーとレコメンデーションパフォーマンスのトレードオフを評価するために、潜伏したバンディット設定を使用します。
論文 参考訳(メタデータ) (2023-09-30T01:56:04Z) - Personalized Graph Federated Learning with Differential Privacy [6.282767337715445]
本稿では、分散接続されたサーバとそのエッジデバイスが協調してデバイスやクラスタ固有のモデルを学習する、パーソナライズされたグラフフェデレーション学習(PGFL)フレームワークを提案する。
本稿では、差分プライバシー、特にノイズシーケンスがモデル交換を行うゼロ集中差分プライバシーを利用するPGFL実装の変種について検討する。
分析の結果,このアルゴリズムは,ゼロ集中型差分プライバシーの観点から,全クライアントの局所的な差分プライバシを保証することがわかった。
論文 参考訳(メタデータ) (2023-06-10T09:52:01Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。