論文の概要: Contrastive explainable clustering with differential privacy
- arxiv url: http://arxiv.org/abs/2406.04610v1
- Date: Fri, 7 Jun 2024 03:37:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 15:39:08.289349
- Title: Contrastive explainable clustering with differential privacy
- Title(参考訳): 差分プライバシーを用いた対照的な説明可能なクラスタリング
- Authors: Dung Nguyen, Ariel Vetzler, Sarit Kraus, Anil Vullikanti,
- Abstract要約: 本稿では,クラスタリング手法における差分プライバシーと対照的な説明を統合することを目的とした,説明可能なAI(XAI)の新たなアプローチを提案する。
例えば$k$-medianや$k$-meansなど、いくつかの基本的なクラスタリング問題に対して、効率的な差分的対照的な説明を与える。
各対照的なシナリオでは、特定のデータポイントを固定されたセントロイド位置として指定し、この制約が差分プライバシー下でのクラスタリングユーティリティに与える影響を測定する。
- 参考スコア(独自算出の注目度): 25.19112971690494
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a novel approach in Explainable AI (XAI), integrating contrastive explanations with differential privacy in clustering methods. For several basic clustering problems, including $k$-median and $k$-means, we give efficient differential private contrastive explanations that achieve essentially the same explanations as those that non-private clustering explanations can obtain. We define contrastive explanations as the utility difference between the original clustering utility and utility from clustering with a specifically fixed centroid. In each contrastive scenario, we designate a specific data point as the fixed centroid position, enabling us to measure the impact of this constraint on clustering utility under differential privacy. Extensive experiments across various datasets show our method's effectiveness in providing meaningful explanations without significantly compromising data privacy or clustering utility. This underscores our contribution to privacy-aware machine learning, demonstrating the feasibility of achieving a balance between privacy and utility in the explanation of clustering tasks.
- Abstract(参考訳): 本稿では,クラスタリング手法における差分プライバシーと対照的な説明を統合することで,XAI(Explainable AI)の新たなアプローチを提案する。
k$-medianや$k$-meansを含むいくつかの基本的なクラスタリング問題に対して、非プライベートクラスタリングの説明が得るものと同じ説明を本質的に達成する効率的な差分プライベートコントラスト的説明を与える。
対照的な説明は、元のクラスタリングユーティリティと特定の固定されたセントロイドによるクラスタリングとの実用性の違いとして定義する。
各対照的なシナリオでは、特定のデータポイントを固定されたセントロイド位置として指定し、この制約が差分プライバシー下でのクラスタリングユーティリティに与える影響を測定する。
さまざまなデータセットにわたる大規模な実験は、データプライバシやクラスタリングユーティリティを著しく損なうことなく、有意義な説明を提供する方法の有効性を示している。
これにより、プライバシを意識した機械学習への私たちの貢献が、クラスタリングタスクの説明において、プライバシとユーティリティのバランスを達成する可能性を示している。
関連論文リスト
- Improving the Utility of Differentially Private Clustering through Dynamical Processing [4.6289929100615]
この研究は、ユーティリティとプライバシの差分なプライベートクラスタリングのトレードオフを軽減することを目的としている。
既存の作業は、パフォーマンスの低下を示す単純なメソッドに重点を置いている。
論文 参考訳(メタデータ) (2023-04-27T00:13:17Z) - k-Means SubClustering: A Differentially Private Algorithm with Improved
Clustering Quality [0.0]
個人プライバシを推論攻撃から保護するために、対話的な設定で多くの微分プライベートな反復アルゴリズムが提案されている。
本研究は,従来の「分別的k-平均クラスタリングと収束保証」の取り組みをベースラインとして拡張する。
提案手法の新規性は,クラスタをサブクラスタ化して,将来のセントロイド方向に移動する確率の高いセントロイドを選択することである。
論文 参考訳(メタデータ) (2023-01-07T17:07:12Z) - Inv-SENnet: Invariant Self Expression Network for clustering under
biased data [17.25929452126843]
本研究では,各サブ空間におけるデータポイントのクラスタ化を学習しながら,不要な属性(バイアス)を共同で除去する新しいフレームワークを提案する。
合成および実世界のデータセットに対する実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-11-13T01:19:06Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Differentially Private k-Means Clustering with Guaranteed Convergence [5.335316436366718]
反復的なクラスタリングアルゴリズムは、データの背後にある洞察を学習するのに役立ちます。
敵は、背景知識によって個人のプライバシーを推測することができる。
このような推論攻撃に対して個人のプライバシを保護するため、反復クラスタリングアルゴリズムの差分プライバシー(DP)を広く研究している。
論文 参考訳(メタデータ) (2020-02-03T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。