論文の概要: Contrastive explainable clustering with differential privacy
- arxiv url: http://arxiv.org/abs/2406.04610v1
- Date: Fri, 7 Jun 2024 03:37:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-06-10 15:39:08.289349
- Title: Contrastive explainable clustering with differential privacy
- Title(参考訳): 差分プライバシーを用いた対照的な説明可能なクラスタリング
- Authors: Dung Nguyen, Ariel Vetzler, Sarit Kraus, Anil Vullikanti,
- Abstract要約: 本稿では,クラスタリング手法における差分プライバシーと対照的な説明を統合することを目的とした,説明可能なAI(XAI)の新たなアプローチを提案する。
例えば$k$-medianや$k$-meansなど、いくつかの基本的なクラスタリング問題に対して、効率的な差分的対照的な説明を与える。
各対照的なシナリオでは、特定のデータポイントを固定されたセントロイド位置として指定し、この制約が差分プライバシー下でのクラスタリングユーティリティに与える影響を測定する。
- 参考スコア(独自算出の注目度): 25.19112971690494
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a novel approach in Explainable AI (XAI), integrating contrastive explanations with differential privacy in clustering methods. For several basic clustering problems, including $k$-median and $k$-means, we give efficient differential private contrastive explanations that achieve essentially the same explanations as those that non-private clustering explanations can obtain. We define contrastive explanations as the utility difference between the original clustering utility and utility from clustering with a specifically fixed centroid. In each contrastive scenario, we designate a specific data point as the fixed centroid position, enabling us to measure the impact of this constraint on clustering utility under differential privacy. Extensive experiments across various datasets show our method's effectiveness in providing meaningful explanations without significantly compromising data privacy or clustering utility. This underscores our contribution to privacy-aware machine learning, demonstrating the feasibility of achieving a balance between privacy and utility in the explanation of clustering tasks.
- Abstract(参考訳): 本稿では,クラスタリング手法における差分プライバシーと対照的な説明を統合することで,XAI(Explainable AI)の新たなアプローチを提案する。
k$-medianや$k$-meansを含むいくつかの基本的なクラスタリング問題に対して、非プライベートクラスタリングの説明が得るものと同じ説明を本質的に達成する効率的な差分プライベートコントラスト的説明を与える。
対照的な説明は、元のクラスタリングユーティリティと特定の固定されたセントロイドによるクラスタリングとの実用性の違いとして定義する。
各対照的なシナリオでは、特定のデータポイントを固定されたセントロイド位置として指定し、この制約が差分プライバシー下でのクラスタリングユーティリティに与える影響を測定する。
さまざまなデータセットにわたる大規模な実験は、データプライバシやクラスタリングユーティリティを著しく損なうことなく、有意義な説明を提供する方法の有効性を示している。
これにより、プライバシを意識した機械学習への私たちの貢献が、クラスタリングタスクの説明において、プライバシとユーティリティのバランスを達成する可能性を示している。
関連論文リスト
- Differentially Private Federated $k$-Means Clustering with Server-Side Data [19.962475029447127]
FedDP-KMeansは$k$-meansクラスタリングのためのアルゴリズムで、完全なフェデレーションと差分プライベートである。
提案アルゴリズムは,合成および実世界のベンチマークタスクにおいて優れた結果が得られる。
論文 参考訳(メタデータ) (2025-06-04T14:53:25Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Revisiting Self-Supervised Heterogeneous Graph Learning from Spectral Clustering Perspective [52.662463893268225]
自己教師付きヘテロジニアスグラフ学習(SHGL)は様々なシナリオにおいて有望な可能性を示している。
既存のSHGLメソッドには2つの大きな制限がある。
ランクと二重整合性制約によって強化された新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-01T09:33:20Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Improving the Variance of Differentially Private Randomized Experiments through Clustering [16.166525280886578]
差分的プライベートなメカニズムであるCluster-DPを提案する。
より高品質なクラスタを選択することで,プライバシー保証を損なうことなく,分散ペナルティを低減できることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Improving the Utility of Differentially Private Clustering through Dynamical Processing [4.6289929100615]
この研究は、ユーティリティとプライバシの差分なプライベートクラスタリングのトレードオフを軽減することを目的としている。
既存の作業は、パフォーマンスの低下を示す単純なメソッドに重点を置いている。
論文 参考訳(メタデータ) (2023-04-27T00:13:17Z) - On Mitigating the Utility-Loss in Differentially Private Learning: A new
Perspective by a Geometrically Inspired Kernel Approach [2.4253452809863116]
本稿では、分類における精度-損失問題を緩和するために、幾何学的にインスパイアされたカーネルベースのアプローチを提案する。
与えられたデータ点のアフィン殻の表現は、再生ケルネルヒルベルト空間(RKHS)で学習される
このアプローチの有効性は、MNISTデータセット、フライブルク食料品データセット、本物のバイオメディカルデータセットの実験を通じて実証される。
論文 参考訳(メタデータ) (2023-04-03T18:52:01Z) - k-Means SubClustering: A Differentially Private Algorithm with Improved
Clustering Quality [0.0]
個人プライバシを推論攻撃から保護するために、対話的な設定で多くの微分プライベートな反復アルゴリズムが提案されている。
本研究は,従来の「分別的k-平均クラスタリングと収束保証」の取り組みをベースラインとして拡張する。
提案手法の新規性は,クラスタをサブクラスタ化して,将来のセントロイド方向に移動する確率の高いセントロイドを選択することである。
論文 参考訳(メタデータ) (2023-01-07T17:07:12Z) - Inv-SENnet: Invariant Self Expression Network for clustering under
biased data [17.25929452126843]
本研究では,各サブ空間におけるデータポイントのクラスタ化を学習しながら,不要な属性(バイアス)を共同で除去する新しいフレームワークを提案する。
合成および実世界のデータセットに対する実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-11-13T01:19:06Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Integrating Auxiliary Information in Self-supervised Learning [94.11964997622435]
まず、補助情報がデータ構造に関する有用な情報をもたらす可能性があることを観察する。
補助情報に基づいてデータクラスタを構築する。
我々はCl-InfoNCEがデータクラスタリング情報を活用するためのより良いアプローチであることを示した。
論文 参考訳(メタデータ) (2021-06-05T11:01:15Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Differentially Private k-Means Clustering with Guaranteed Convergence [5.335316436366718]
反復的なクラスタリングアルゴリズムは、データの背後にある洞察を学習するのに役立ちます。
敵は、背景知識によって個人のプライバシーを推測することができる。
このような推論攻撃に対して個人のプライバシを保護するため、反復クラスタリングアルゴリズムの差分プライバシー(DP)を広く研究している。
論文 参考訳(メタデータ) (2020-02-03T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。