論文の概要: Content-Aware Differential Privacy with Conditional Invertible Neural
Networks
- arxiv url: http://arxiv.org/abs/2207.14625v1
- Date: Fri, 29 Jul 2022 11:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:37:15.859210
- Title: Content-Aware Differential Privacy with Conditional Invertible Neural
Networks
- Title(参考訳): 条件付き可逆ニューラルネットワークを用いたコンテンツ認識差分プライバシー
- Authors: Malte T\"olle, Ullrich K\"othe, Florian Andr\'e, Benjamin Meder, Sandy
Engelhardt
- Abstract要約: Invertible Neural Networks (INNs) は、正確な精度を定量化しながら、優れた生成性能を示した。
INNの潜在空間に雑音を加えることで、差分プライベートな画像修正が可能になるという仮説を立てる。
利用可能なベンチマークデータセットと専用の医療データセットの実験を行います。
- 参考スコア(独自算出の注目度): 0.7102341019971402
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Differential privacy (DP) has arisen as the gold standard in protecting an
individual's privacy in datasets by adding calibrated noise to each data
sample. While the application to categorical data is straightforward, its
usability in the context of images has been limited. Contrary to categorical
data the meaning of an image is inherent in the spatial correlation of
neighboring pixels making the simple application of noise infeasible.
Invertible Neural Networks (INN) have shown excellent generative performance
while still providing the ability to quantify the exact likelihood. Their
principle is based on transforming a complicated distribution into a simple one
e.g. an image into a spherical Gaussian. We hypothesize that adding noise to
the latent space of an INN can enable differentially private image
modification. Manipulation of the latent space leads to a modified image while
preserving important details. Further, by conditioning the INN on meta-data
provided with the dataset we aim at leaving dimensions important for downstream
tasks like classification untouched while altering other parts that potentially
contain identifying information. We term our method content-aware differential
privacy (CADP). We conduct experiments on publicly available benchmarking
datasets as well as dedicated medical ones. In addition, we show the
generalizability of our method to categorical data. The source code is publicly
available at https://github.com/Cardio-AI/CADP.
- Abstract(参考訳): 差分プライバシー(DP)は、各データサンプルに校正ノイズを加えることで、データセット内の個人のプライバシーを保護するための金の標準となっている。
分類データへの応用は単純だが、画像のコンテキストにおけるユーザビリティは制限されている。
分類データとは対照的に、画像の意味は隣接する画素の空間的相関に固有のものであり、ノイズの単純な適用は不可能である。
Invertible Neural Networks (INN)は、正確な精度を定量化しながら、優れた生成性能を示した。
彼らの原理は、複雑な分布を単純な分布、例えば像を球面ガウスに変換することに基づいている。
INNの潜在空間に雑音を加えることで、差分プライベートな画像修正が可能になると仮定する。
潜伏空間の操作は、重要な詳細を保存しながら修正されたイメージにつながる。
さらに、データセットに提供されたメタデータにinnを条件付けすることにより、識別情報を含む可能性のある他の部分を変更することなく、分類などの下流タスクに重要な寸法を残すことを目指している。
本手法は,CADP(Content-Aware differential Privacy)と呼ぶ。
利用可能なベンチマークデータセットと専用の医療データセットの実験を行います。
さらに,分類データに対する手法の一般化可能性を示す。
ソースコードはhttps://github.com/Cardio-AI/CADPで公開されている。
関連論文リスト
- Integrating kNN with Foundation Models for Adaptable and Privacy-Aware
Image Classification [0.13108652488669734]
従来のディープラーニングモデルは、その透明性とデータ変更に適応する能力を制限する知識を暗黙的にエンコードする。
モデル重みとは無関係に、基礎となるトレーニングデータの埋め込みを格納することで、この制限に対処する。
提案手法では,k$-Nearest Neighbor(k$-NN)分類器を視覚ベース基盤モデルに統合し,自然画像に基づいて事前学習を行う。
論文 参考訳(メタデータ) (2024-02-19T20:08:13Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Synthetic Dataset Generation for Privacy-Preserving Machine Learning [7.489265323050362]
本稿では,従来のプライベートデータセットからセキュアな合成データセットを生成する手法を提案する。
提案手法は,様々なプライバシー侵害攻撃下でデータプライバシを保護していることを示す。
論文 参考訳(メタデータ) (2022-10-06T20:54:52Z) - Syfer: Neural Obfuscation for Private Data Release [58.490998583666276]
我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Data-driven Meta-set Based Fine-Grained Visual Classification [61.083706396575295]
本稿では, ノイズの多いWeb画像に対して, 微粒化認識のためのデータ駆動型メタセットベースアプローチを提案する。
具体的には、少量のクリーンなメタセットでガイドされ、メタラーニング方式で選択ネットを訓練し、分布内および分布外ノイズ画像の識別を行う。
論文 参考訳(メタデータ) (2020-08-06T03:04:16Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Privacy-Preserving Image Classification in the Local Setting [17.375582978294105]
ローカル微分プライバシ(LDP)は、データ所有者がランダムにインプットを摂動させ、リリース前にデータの妥当な削除を可能にする、有望なソリューションを提供する。
本稿では、データ所有者が画像を保持し、不信なデータ利用者が機械学習モデルにこれらの画像を入力として適合させたいという、双方向のイメージ分類問題について考察する。
本稿では,拡張性のある領域サイズで画像表現を生成する,教師付き画像特徴抽出器 DCAConv を提案する。
論文 参考訳(メタデータ) (2020-02-09T01:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。