論文の概要: Differentially Private Explanations for Clusters
- arxiv url: http://arxiv.org/abs/2506.05900v1
- Date: Fri, 06 Jun 2025 09:14:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.398811
- Title: Differentially Private Explanations for Clusters
- Title(参考訳): クラスタのための微分プライベートな説明
- Authors: Amir Gilad, Tova Milo, Kathy Razmadze, Ron Zadicario,
- Abstract要約: 本稿では,ブラックボックスクラスタリング結果の説明を提供するフレームワークであるDPClustXについて述べる。
我々は,DPClustXを実データ上で実験的に解析し,厳密なプライバシー制約下であっても洞察に富んだ正確な説明を提供することを示した。
- 参考スコア(独自算出の注目度): 16.217435153209752
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The dire need to protect sensitive data has led to various flavors of privacy definitions. Among these, Differential privacy (DP) is considered one of the most rigorous and secure notions of privacy, enabling data analysis while preserving the privacy of data contributors. One of the fundamental tasks of data analysis is clustering , which is meant to unravel hidden patterns within complex datasets. However, interpreting clustering results poses significant challenges, and often necessitates an extensive analytical process. Interpreting clustering results under DP is even more challenging, as analysts are provided with noisy responses to queries, and longer, manual exploration sessions require additional noise to meet privacy constraints. While increasing attention has been given to clustering explanation frameworks that aim at assisting analysts by automatically uncovering the characteristics of each cluster, such frameworks may also disclose sensitive information within the dataset, leading to a breach in privacy. To address these challenges, we present DPClustX, a framework that provides explanations for black-box clustering results while satisfying DP. DPClustX takes as input the sensitive dataset alongside privately computed clustering labels, and outputs a global explanation, emphasizing prominent characteristics of each cluster while guaranteeing DP. We perform an extensive experimental analysis of DPClustX on real data, showing that it provides insightful and accurate explanations even under tight privacy constraints.
- Abstract(参考訳): 機密データを保護するという難しさは、さまざまなプライバシー定義を生み出している。
これらのうち、差分プライバシー(DP)は、データコントリビュータのプライバシーを維持しながらデータ分析を可能にする、最も厳格でセキュアなプライバシー概念の1つと考えられている。
データ分析の基本的なタスクの1つはクラスタリングであり、複雑なデータセット内に隠れたパターンを解き放つことを目的としている。
しかし、クラスタリングの結果を解釈することは重大な課題となり、しばしば広範な分析プロセスを必要とする。
DP下でのクラスタリング結果の解釈は、クエリに対するノイズの多い応答がアナリストに提供するため、さらに難しい。
各クラスタの特徴を自動的に明らかにすることでアナリストを支援するクラスタリング説明フレームワークに注目が集まっている一方で、そのようなフレームワークはデータセット内の機密情報を開示し、プライバシの侵害につながる可能性がある。
これらの課題に対処するため,DPを満たすとともにブラックボックスクラスタリング結果の説明を提供するフレームワークであるDPClustXを提案する。
DPClustXは、プライベートに計算されたクラスタリングラベルとともにセンシティブなデータセットを入力として、各クラスタの特徴を強調しながら、DPを保証しながら、グローバルな説明を出力する。
我々は実データ上でDPClustXを広範囲に実験的に分析し、厳密なプライバシー制約の下でも洞察力と正確な説明を提供することを示した。
関連論文リスト
- Optimal Allocation of Privacy Budget on Hierarchical Data Release [48.96399034594329]
本稿では,階層データリリースにおける最適プライバシ予算割り当ての問題に対処する。
データの粒度とプライバシー損失のトレードオフを考慮しつつ、全プライバシー予算の対象となるデータユーティリティの最大化を目指している。
論文 参考訳(メタデータ) (2025-05-16T05:25:11Z) - Private Approximate Query over Horizontal Data Federation [0.0]
既存のアプローチは、プライバシを改善する暗号に頼っているが、クエリ応答時間を犠牲にしている。
本稿では,データ分散を意識したオンラインサンプリング手法を考案し,レンジクエリの実行を高速化する手法を提案する。
我々のソリューションは、基本的な非セキュアなソリューションよりも最大8倍高速な処理を提供できる。
論文 参考訳(メタデータ) (2024-06-17T11:19:58Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - DPM: Clustering Sensitive Data through Separation [2.2179058122448922]
幾何学的クラスタリングアプローチに基づいてデータセットをクラスタに分離するDPMと呼ばれるプライバシ保護クラスタリングアルゴリズムを提案する。
我々は,DPMが標準クラスタリング指標の最先端性を実現し,一般的なKMeansアルゴリズムに近いクラスタリング結果が得られることを示す。
論文 参考訳(メタデータ) (2023-07-06T13:12:19Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - imdpGAN: Generating Private and Specific Data with Generative
Adversarial Networks [19.377726080729293]
imdpGANは、プライバシー保護と潜伏表現を同時に達成するエンドツーエンドフレームワークである。
我々は、ImdpGANが個々のデータポイントのプライバシを保持し、生成したサンプルの特異性を制御するために潜時符号を学習していることを示す。
論文 参考訳(メタデータ) (2020-09-29T08:03:32Z) - Attribute Privacy: Framework and Mechanisms [26.233612860653025]
本研究では、データ所有者が分析中にデータセット全体の機密性を明らかにすることに関心を持つ属性プライバシの研究を行う。
我々は,グローバル属性を保護する必要がある2つのケースにおいて,インパトリビュートプライバシを捕捉するための定義を提案する。
これらの設定の属性プライバシーを満足する2つの効率的なメカニズムと1つの非効率的なメカニズムを提供する。
論文 参考訳(メタデータ) (2020-09-08T22:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。