論文の概要: Breaking Privacy in Federated Clustering: Perfect Input Reconstruction via Temporal Correlations
- arxiv url: http://arxiv.org/abs/2511.07073v1
- Date: Mon, 10 Nov 2025 13:06:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.259288
- Title: Breaking Privacy in Federated Clustering: Perfect Input Reconstruction via Temporal Correlations
- Title(参考訳): フェデレーションクラスタリングのプライバシーを破る - 時間相関による入力再構成の完全性
- Authors: Guang Yang, Lixia Luo, Qiongxiu Li,
- Abstract要約: フェデレートされたクラスタリングにより、複数のパーティが生サンプルを共有することなく、分散データのパターンを発見することができる。
多くのプロトコルは、トレーニング中に中間セントロイドを開示し、オーバーヘッドを減らす。
フェデレーションクラスタリングにおけるセントロイドの開示は、プライバシーを著しく損なうことを示す。
- 参考スコア(独自算出の注目度): 15.144981031301512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated clustering allows multiple parties to discover patterns in distributed data without sharing raw samples. To reduce overhead, many protocols disclose intermediate centroids during training. While often treated as harmless for efficiency, whether such disclosure compromises privacy remains an open question. Prior analyses modeled the problem as a so-called Hidden Subset Sum Problem (HSSP) and argued that centroid release may be safe, since classical HSSP attacks fail to recover inputs. We revisit this question and uncover a new leakage mechanism: temporal regularities in $k$-means iterations create exploitable structure that enables perfect input reconstruction. Building on this insight, we propose Trajectory-Aware Reconstruction (TAR), an attack that combines temporal assignment information with algebraic analysis to recover exact original inputs. Our findings provide the first rigorous evidence, supported by a practical attack, that centroid disclosure in federated clustering significantly compromises privacy, exposing a fundamental tension between privacy and efficiency.
- Abstract(参考訳): フェデレートされたクラスタリングにより、複数のパーティが生サンプルを共有することなく、分散データのパターンを発見することができる。
オーバーヘッドを減らすため、多くのプロトコルはトレーニング中に中間セントロイドを開示する。
情報開示がプライバシーを侵害するかどうかについては、多くの場合、効率上無害であるとして扱われるが、依然として未解決の問題である。
先行分析では、この問題をいわゆるHidden Subset Sum Problem (HSSP) としてモデル化し、古典的なHSSP攻撃では入力を回復できないため、セントロイドリリースは安全かもしれないと主張した。
我々はこの質問を再検討し、新しいリークメカニズムを明らかにする:$k$-meansイテレーションにおける時間的正則性は、完全な入力再構成を可能にする悪用可能な構造を作り出す。
この知見に基づいて,時間的割当て情報と代数的解析を組み合わせ,正確な元の入力を復元する攻撃であるトラジェクティブ・アウェア・リコンストラクション(TAR)を提案する。
我々の発見は、フェデレートされたクラスタリングにおけるセントロイドの開示がプライバシーを著しく侵害し、プライバシと効率の根本的な緊張を露呈するという、実用的な攻撃によって支持された最初の厳密な証拠を提供する。
関連論文リスト
- Revisiting the Privacy Risks of Split Inference: A GAN-Based Data Reconstruction Attack via Progressive Feature Optimization [49.32786615205064]
Split Inference (SI)は、エッジデバイスとクラウドの間の計算を分割することで、レイテンシを低減し、ユーザのプライバシを保護する。
データ再構成攻撃(DRA)の最近の進歩は、SIで交換された中間的特徴を利用して機密入力データを復元できることを明らかにしている。
既存のDRAは一般的に浅いモデルにのみ有効であり、セマンティックな事前を十分に活用できない。
本稿では,プログレッシブ・フィーチャー・オプティマイゼーション(PFO)を用いた新しいGANベースのDRAフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-28T10:00:39Z) - From Mean to Extreme: Formal Differential Privacy Bounds on the Success of Real-World Data Reconstruction Attacks [54.25638567385662]
機械学習における微分プライバシーは、しばしばメンバーシップ推論に対する保証として解釈される。
DP予算を定量的な保護に翻訳することで、データ再構築の脅威を悪化させることは、依然として困難な課題である。
本稿では、実証された"ゼロスクラッチ"攻撃のメカニズムに合わせた、最初の公式なプライバシー境界を導出することで、臨界ギャップを埋める。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - On the privacy of federated Clustering: A Cryptographic View [2.209921757303168]
多くのプライバシ保存クラスタリングアルゴリズムは、完全なプライバシを保証するために、ホモモルフィック暗号化やセキュアなマルチパーティ計算のような暗号化技術を活用する。
本稿では,この複雑なトレードオフを考察し,反復アルゴリズムにおける連続暗号の必要性を疑問視する。
既存の格子型HSSP攻撃は,中間セントロイドの知識からプライベートデータの再構成に失敗していることを示す。
論文 参考訳(メタデータ) (2023-12-13T09:04:14Z) - Contrastive Continual Multi-view Clustering with Filtered Structural
Fusion [57.193645780552565]
ビューが事前に収集されるアプリケーションでは、マルチビュークラスタリングが成功します。
データビューがシーケンシャルに収集されるシナリオ、すなわちリアルタイムデータを見落としている。
いくつかの方法が提案されているが、安定塑性ジレンマに閉じ込められている。
フィルタ構造融合を用いたコントラスト連続多視点クラスタリングを提案する。
論文 参考訳(メタデータ) (2023-09-26T14:18:29Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。