論文の概要: Uncertainty-Autoencoder-Based Privacy and Utility Preserving Data Type
Conscious Transformation
- arxiv url: http://arxiv.org/abs/2205.01950v1
- Date: Wed, 4 May 2022 08:40:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 21:33:27.361411
- Title: Uncertainty-Autoencoder-Based Privacy and Utility Preserving Data Type
Conscious Transformation
- Title(参考訳): 不確実性オートエンコーダに基づくデータ型意識変換のためのプライバシとユーティリティ
- Authors: Bishwas Mandal, George Amariucai, Shuangqing Wei
- Abstract要約: プライバシ・ユーティリティのトレードオフ問題に対処する逆学習フレームワークを2つの条件で提案する。
データタイプの無知な条件下では、プライバシメカニズムは、正確に1つのクラスを表す、カテゴリ機能の1ホットエンコーディングを提供する。
データ型認識条件下では、分類変数は各クラスごとに1つのスコアの集合で表される。
- 参考スコア(独自算出の注目度): 3.7315964084413173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an adversarial learning framework that deals with the
privacy-utility tradeoff problem under two types of conditions: data-type
ignorant, and data-type aware. Under data-type aware conditions, the privacy
mechanism provides a one-hot encoding of categorical features, representing
exactly one class, while under data-type ignorant conditions the categorical
variables are represented by a collection of scores, one for each class. We use
a neural network architecture consisting of a generator and a discriminator,
where the generator consists of an encoder-decoder pair, and the discriminator
consists of an adversary and a utility provider. Unlike previous research
considering this kind of architecture, which leverages autoencoders (AEs)
without introducing any randomness, or variational autoencoders (VAEs) based on
learning latent representations which are then forced into a Gaussian
assumption, our proposed technique introduces randomness and removes the
Gaussian assumption restriction on the latent variables, only focusing on the
end-to-end stochastic mapping of the input to privatized data. We test our
framework on different datasets: MNIST, FashionMNIST, UCI Adult, and US Census
Demographic Data, providing a wide range of possible private and utility
attributes. We use multiple adversaries simultaneously to test our privacy
mechanism -- some trained from the ground truth data and some trained from the
perturbed data generated by our privacy mechanism. Through comparative
analysis, our results demonstrate better privacy and utility guarantees than
the existing works under similar, data-type ignorant conditions, even when the
latter are considered under their original restrictive single-adversary model.
- Abstract(参考訳): 本稿では,データ型無知とデータ型無知の2つの条件下で,プライバシとユーティリティのトレードオフ問題を扱う逆学習フレームワークを提案する。
データ型認識条件の下では、プライバシメカニズムはカテゴリの特徴の1つのホットエンコーディングを提供し、1つのクラスを表すが、データ型無知条件下では、カテゴリ変数は各クラスごとに1つのスコアの集まりで表現される。
我々は、生成器と識別器からなるニューラルネットワークアーキテクチャを使用し、生成器はエンコーダとデコーダペアで構成され、識別器は敵とユーティリティプロバイダから構成される。
ランダム性を導入することなくオートエンコーダ(AE)を利用する従来のアーキテクチャや,ガウス的仮定に強制される潜伏表現に基づく変分オートエンコーダ(VAE)を利用する手法とは異なり,提案手法はランダム性を導入し,潜伏変数に対するガウス的仮定の制約を取り除き,入力から民生データへのエンドツーエンドの確率写像にのみ焦点をあてる。
MNIST、FashionMNIST、UCI adult、US Census Demographic Dataといったさまざまなデータセットでフレームワークをテストしています。
複数の敵を使って、プライバシーメカニズムを同時にテストします -- 根拠となる真実データからトレーニングされた者もいれば、プライバシメカニズムによって生成された混乱したデータからトレーニングされた者もいます。
比較分析により,データ型無知な類似の条件下では,プライバシとユーティリティの保証が従来よりも良好であることが判明した。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Private prediction for large-scale synthetic text generation [28.488459921169905]
大規模言語モデル(LLM)を用いた微分プライベートテキスト生成手法を提案する。
プライベートな予測フレームワークでは、差分プライバシー保証を満たすために出力された合成データのみを必要とする。
論文 参考訳(メタデータ) (2024-07-16T18:28:40Z) - Footprints of Data in a Classifier Model: The Privacy Issues and Their Mitigation through Data Obfuscation [0.9208007322096533]
トレーニングデータのフットプリントを 予測モデルに埋め込むことは
テストデータとトレーニングデータのパフォーマンス品質の違いは、モデルをトレーニングしたデータの受動的識別を引き起こす。
この研究は、データフットプリントから生じる脆弱性に対処することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-02T13:56:37Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Multi-class Classifier based Failure Prediction with Artificial and
Anonymous Training for Data Privacy [0.0]
故障予測のためのニューラルネットワークに基づくマルチクラス分類器を開発した。
提案したメカニズムは、トレーニングプロセスで使用されるデータセットを、プライベートに保持されている実際のデータから完全に分離する。
その結果,異なるパラメータ構成下での故障予測の精度が向上した。
論文 参考訳(メタデータ) (2022-09-06T07:53:33Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。