論文の概要: An Efficient Difference-of-Convex Solver for Privacy Funnel
- arxiv url: http://arxiv.org/abs/2403.04778v2
- Date: Tue, 12 Mar 2024 13:47:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 00:25:56.955329
- Title: An Efficient Difference-of-Convex Solver for Privacy Funnel
- Title(参考訳): プライバシーファネルのための効率的な凸解法
- Authors: Teng-Hui Huang and Hesham El Gamal
- Abstract要約: 本稿では,プライバシ・ファンネル(PF)手法の効率的な解法を提案する。
提案した直流分離は, クローズドフォーム更新方程式を導出する。
提案手法をMNISTおよびFashionデータセットを用いて評価する。
- 参考スコア(独自算出の注目度): 3.626013617212667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an efficient solver for the privacy funnel (PF) method, leveraging
its difference-of-convex (DC) structure. The proposed DC separation results in
a closed-form update equation, which allows straightforward application to both
known and unknown distribution settings. For known distribution case, we prove
the convergence (local stationary points) of the proposed non-greedy solver,
and empirically show that it outperforms the state-of-the-art approaches in
characterizing the privacy-utility trade-off. The insights of our DC approach
apply to unknown distribution settings where labeled empirical samples are
available instead. Leveraging the insights, our alternating minimization solver
satisfies the fundamental Markov relation of PF in contrast to previous
variational inference-based solvers. Empirically, we evaluate the proposed
solver with MNIST and Fashion-MNIST datasets. Our results show that under a
comparable reconstruction quality, an adversary suffers from higher prediction
error from clustering our compressed codes than that with the compared methods.
Most importantly, our solver is independent to private information in inference
phase contrary to the baselines.
- Abstract(参考訳): 本稿では,その差分凸(DC)構造を利用したプライバシ・ファンネル(PF)手法の効率的な解法を提案する。
提案するdc分離は、既知の分布設定と未知の分布設定の両方に簡単に適用できるクローズドフォーム更新方程式を導出する。
既知分布の場合,提案手法の収束(局所定常点)を証明し,プライバシ・ユーティリティ・トレードオフの特徴付けにおける最先端のアプローチよりも優れていることを示す。
我々のDCアプローチの洞察は、ラベル付き実験サンプルが利用できる未知の分布設定に適用できる。
これらの知見を活用することで、我々の交互最小化解法は、以前の変分推論に基づく解法とは対照的に、PFのマルコフ関係を満足する。
提案手法をMNISTおよびFashion-MNISTデータセットを用いて実証的に評価した。
その結果,コンストラクション品質に匹敵する条件下では,圧縮符号のクラスタリングによる予測誤差が比較手法よりも高いことがわかった。
最も重要なことは、我々のソルバはベースラインとは対照的に推論フェーズでプライベート情報に依存しています。
関連論文リスト
- Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Efficient Conformal Prediction under Data Heterogeneity [79.35418041861327]
コンフォーマル予測(CP)は不確実性定量化のための頑健な枠組みである。
非交換性に対処するための既存のアプローチは、最も単純な例を超えて計算不可能なメソッドにつながる。
この研究は、比較的一般的な非交換可能なデータ分布に対して証明可能な信頼セットを生成する、CPに新しい効率的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-25T20:02:51Z) - Distributionally Robust Skeleton Learning of Discrete Bayesian Networks [9.46389554092506]
我々は、潜在的に破損したデータから一般的な離散ベイズネットワークの正確なスケルトンを学習する問題を考察する。
本稿では,有界ワッサーシュタイン距離(KL)における分布群に対する最も有害なリスクを,経験的分布へのKL分散を最適化することを提案する。
本稿では,提案手法が標準正規化回帰手法と密接に関連していることを示す。
論文 参考訳(メタデータ) (2023-11-10T15:33:19Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Exploiting Temporal Structures of Cyclostationary Signals for
Data-Driven Single-Channel Source Separation [98.95383921866096]
単一チャネルソース分離(SCSS)の問題点について検討する。
我々は、様々なアプリケーション領域に特に適するサイクロ定常信号に焦点を当てる。
本稿では,最小MSE推定器と競合するU-Netアーキテクチャを用いたディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-22T14:04:56Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Re-parameterizing VAEs for stability [1.90365714903665]
本稿では,変分オートエンコーダ(VAE)の数値安定性を訓練するための理論的アプローチを提案する。
我々の研究は、VAEが複雑な画像データセット上のアート生成結果に到達できるようにするための最近の研究によって動機づけられている。
我々は、それらが依存する正規分布のパラメータ化方法に小さな変更を加えることで、VAEを安全にトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-06-25T16:19:09Z) - Differentially private inference via noisy optimization [3.015622397986615]
本研究では, 雑音勾配降下法や雑音の強いニュートン法と併用して, 最適な個人推定値が得られることを示す。
シミュレーションにおける小サンプル実験性能の向上につながるバイアス補正の有効性を実証する。
論文 参考訳(メタデータ) (2021-03-19T19:55:55Z) - Distributionally Robust Federated Averaging [19.875176871167966]
適応サンプリングを用いた堅牢な学習周期平均化のためのコミュニケーション効率の高い分散アルゴリズムを提案する。
我々は、フェデレーション学習環境における理論的結果に関する実験的証拠を裏付ける。
論文 参考訳(メタデータ) (2021-02-25T03:32:09Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。