論文の概要: Differentially Private Counterfactuals via Functional Mechanism
- arxiv url: http://arxiv.org/abs/2208.02878v1
- Date: Thu, 4 Aug 2022 20:31:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:24:45.840918
- Title: Differentially Private Counterfactuals via Functional Mechanism
- Title(参考訳): 機能的メカニズムによる個人的対策
- Authors: Fan Yang, Qizhang Feng, Kaixiong Zhou, Jiahao Chen, Xia Hu
- Abstract要約: 本稿では,デプロイされたモデルや説明セットに触れることなく,差分的プライベート・カウンティファクト(DPC)を生成する新しいフレームワークを提案する。
特に、ノイズの多いクラスプロトタイプを構築するための機能機構を備えたオートエンコーダを訓練し、次に潜伏プロトタイプからDPCを導出する。
- 参考スコア(独自算出の注目度): 47.606474009932825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual, serving as one emerging type of model explanation, has
attracted tons of attentions recently from both industry and academia.
Different from the conventional feature-based explanations (e.g.,
attributions), counterfactuals are a series of hypothetical samples which can
flip model decisions with minimal perturbations on queries. Given valid
counterfactuals, humans are capable of reasoning under ``what-if''
circumstances, so as to better understand the model decision boundaries.
However, releasing counterfactuals could be detrimental, since it may
unintentionally leak sensitive information to adversaries, which brings about
higher risks on both model security and data privacy. To bridge the gap, in
this paper, we propose a novel framework to generate differentially private
counterfactual (DPC) without touching the deployed model or explanation set,
where noises are injected for protection while maintaining the explanation
roles of counterfactual. In particular, we train an autoencoder with the
functional mechanism to construct noisy class prototypes, and then derive the
DPC from the latent prototypes based on the post-processing immunity of
differential privacy. Further evaluations demonstrate the effectiveness of the
proposed framework, showing that DPC can successfully relieve the risks on both
extraction and inference attacks.
- Abstract(参考訳): ファクトファクトは、新しいタイプのモデル説明として機能し、近年、産業とアカデミックの両方から多くの注目を集めている。
従来の特徴に基づく説明(例えば帰属)とは異なり、反事実は、クエリに対する最小限の摂動でモデル決定をひっくり返すことができる一連の仮説的なサンプルである。
有効なカウンターファクトが与えられた場合、人間はモデル決定境界をよりよく理解するために「What-if」の状況下で推論することができる。
しかし、偽物のリリースは、意図せず敵に機密情報を漏らす可能性があり、モデルセキュリティとデータプライバシの両方により高いリスクをもたらすため、有害である可能性がある。
このギャップを埋めるため,本論文では,分散したモデルや説明集合に触らずに微分的にプライベートな反事実(dpc)を生成する新しい枠組みを提案する。
特に,ノイズの多いクラスプロトタイプを構築するための機能機構を備えたオートエンコーダを訓練し,差分プライバシーの処理後免責に基づく潜在プロトタイプからdpcを導出する。
さらに,提案手法の有効性を実証し,DPCが抽出攻撃と推論攻撃の両方のリスクを軽減できることを示した。
関連論文リスト
- Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Bridging Differential Privacy and Byzantine-Robustness via Model
Aggregation [27.518542543750367]
本稿では,差分プライバシーとビザンチネロバストネスという,連邦学習における対立する問題に対処することを目的とする。
標準メカニズムは送信DP、エンベロップスエンベロップスエンベロップスエンベロープ(エンベロップスエンベロープ、エンベロープエンベロープアグリゲーション)を追加し、ビザンツ攻撃を防御する。
提案手法の影響は, その頑健なモデルアグリゲーションによって抑制されていることを示す。
論文 参考訳(メタデータ) (2022-04-29T23:37:46Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Federated Model Distillation with Noise-Free Differential Privacy [35.72801867380072]
我々はFEDMD-NFDPと呼ばれる新しいフレームワークを提案し、このフレームワークはFEDMD-NFDP機構をフェデレートされたモデル蒸留フレームワークに適用する。
FEDMD-NFDPが同等のユーティリティと通信効率を提供できることを示す。
論文 参考訳(メタデータ) (2020-09-11T17:19:56Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - Mitigating Query-Flooding Parameter Duplication Attack on Regression
Models with High-Dimensional Gaussian Mechanism [12.017509695576377]
差分プライバシー(DP)はこの攻撃を緩和する有望な手法と考えられている。
提案手法では,クエリフローディングパラメータ重複(QPD)攻撃によってモデル情報を推測できることを示す。
未承認情報開示を防止するための新しい高次元ガウス(HDG)機構を提案する。
論文 参考訳(メタデータ) (2020-02-06T01:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。