論文の概要: ConfounderGAN: Protecting Image Data Privacy with Causal Confounder
- arxiv url: http://arxiv.org/abs/2212.01767v1
- Date: Sun, 4 Dec 2022 08:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 15:37:58.797781
- Title: ConfounderGAN: Protecting Image Data Privacy with Causal Confounder
- Title(参考訳): ConfounderGAN:Causal Confounderで画像データのプライバシーを保護する
- Authors: Qi Tian, Kun Kuang, Kelu Jiang, Furui Liu, Zhihua Wang, Fei Wu
- Abstract要約: 本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
- 参考スコア(独自算出の注目度): 85.6757153033139
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of deep learning is partly attributed to the availability of
massive data downloaded freely from the Internet. However, it also means that
users' private data may be collected by commercial organizations without
consent and used to train their models. Therefore, it's important and necessary
to develop a method or tool to prevent unauthorized data exploitation. In this
paper, we propose ConfounderGAN, a generative adversarial network (GAN) that
can make personal image data unlearnable to protect the data privacy of its
owners. Specifically, the noise produced by the generator for each image has
the confounder property. It can build spurious correlations between images and
labels, so that the model cannot learn the correct mapping from images to
labels in this noise-added dataset. Meanwhile, the discriminator is used to
ensure that the generated noise is small and imperceptible, thereby remaining
the normal utility of the encrypted image for humans. The experiments are
conducted in six image classification datasets, consisting of three natural
object datasets and three medical datasets. The results demonstrate that our
method not only outperforms state-of-the-art methods in standard settings, but
can also be applied to fast encryption scenarios. Moreover, we show a series of
transferability and stability experiments to further illustrate the
effectiveness and superiority of our method.
- Abstract(参考訳): ディープラーニングの成功の一部は、インターネットから自由にダウンロードされた大量のデータの提供によるものだ。
しかし、これはまた、ユーザのプライベートデータが同意なく商業組織によって収集され、モデルのトレーニングに使用されることも意味している。
そのため、不正なデータ利用を防止する方法やツールを開発することが重要である。
本稿では,個人の画像データを管理不能にし,所有者のデータプライバシを保護することを目的とした,gan(generative adversarial network)であるconfounderganを提案する。
具体的には、画像毎にジェネレータが生成するノイズは、共起特性を有する。
画像とラベルの間にスパーラスな相関関係を構築することができるため、このノイズ付加データセットでは、モデルが画像からラベルへの正しいマッピングを学習できない。
一方、この判別器は、生成されたノイズが小さく知覚不能であることを保証するために使用され、人間の暗号化画像の正常な有用性が保たれる。
3つの自然オブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実験を行った。
その結果,本手法は,標準設定において最先端メソッドよりも優れるだけでなく,高速な暗号化シナリオにも適用できることがわかった。
さらに,本手法の有効性と優位性を示すために,一連の伝達性および安定性実験を示す。
関連論文リスト
- Only My Model On My Data: A Privacy Preserving Approach Protecting one
Model and Deceiving Unauthorized Black-Box Models [11.59117790048892]
本研究では、認証されたモデルによる正確な推論を維持する人間認識可能な画像を生成することにより、未調査の実用的プライバシー保護ユースケースに取り組む。
その結果、生成した画像は、保護されたモデルの精度を維持し、認証されていないブラックボックスモデルの平均精度を、ImageNet、Celeba-HQ、AffectNetのデータセットでそれぞれ11.97%、6.63%、55.51%に下げることができた。
論文 参考訳(メタデータ) (2024-02-14T17:11:52Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion
Models [85.52369122266549]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Synthetic Dataset Generation for Privacy-Preserving Machine Learning [7.489265323050362]
本稿では,従来のプライベートデータセットからセキュアな合成データセットを生成する手法を提案する。
提案手法は,様々なプライバシー侵害攻撃下でデータプライバシを保護していることを示す。
論文 参考訳(メタデータ) (2022-10-06T20:54:52Z) - Content-Aware Differential Privacy with Conditional Invertible Neural
Networks [0.7102341019971402]
Invertible Neural Networks (INNs) は、正確な精度を定量化しながら、優れた生成性能を示した。
INNの潜在空間に雑音を加えることで、差分プライベートな画像修正が可能になるという仮説を立てる。
利用可能なベンチマークデータセットと専用の医療データセットの実験を行います。
論文 参考訳(メタデータ) (2022-07-29T11:52:16Z) - Assessing Privacy Leakage in Synthetic 3-D PET Imaging using Transversal
GAN [2.0764611233067534]
腫瘍マスクに装着した頭頸部PET画像を用いた3次元生成モデルTransversal GAN (TrGAN) を症例として紹介した。
TrGANの識別器は攻撃に対して脆弱であり、攻撃者がどのサンプルをほぼ完璧に訓練に用いたかを識別できることを示す。
これは、TrGANジェネレータは、識別器ではないが、最小限のプライバシーリスクで合成3DPETデータを共有するために使用される可能性があることを示唆している。
論文 参考訳(メタデータ) (2022-06-13T20:02:32Z) - PASS: An ImageNet replacement for self-supervised pretraining without
humans [152.3252728876108]
本稿では,自己スーパービジョンのためのHumAnsを含まないPASS:Picturesを提案する。
PASSは、CC-BYライセンスのイメージと、著作権問題に対処する完全な属性メタデータのみを含む。
PASS は MoCo-v2, SwAV, DINO などの手法で事前訓練できることを示す。
PASSは、例えばベンチマークに不十分なため、既存のデータセットを陳腐化しない。しかしながら、より安全なデータを使用して、モデル事前トレーニングがしばしば可能であることを示し、事前トレーニングメソッドをより堅牢に評価する基盤を提供する。
論文 参考訳(メタデータ) (2021-09-27T17:59:39Z) - Learning to See by Looking at Noise [87.12788334473295]
簡単なランダムなプロセスから画像を生成する一連の画像生成モデルについて検討する。
これらは、対照的な損失を伴う視覚表現学習者のトレーニングデータとして使用される。
以上の結果から,実データの構造的特性を捉えることはノイズにとって重要であるが,現実的ではないプロセスでも良好な性能が達成できることが示唆された。
論文 参考訳(メタデータ) (2021-06-10T17:56:46Z) - Data-driven Meta-set Based Fine-Grained Visual Classification [61.083706396575295]
本稿では, ノイズの多いWeb画像に対して, 微粒化認識のためのデータ駆動型メタセットベースアプローチを提案する。
具体的には、少量のクリーンなメタセットでガイドされ、メタラーニング方式で選択ネットを訓練し、分布内および分布外ノイズ画像の識別を行う。
論文 参考訳(メタデータ) (2020-08-06T03:04:16Z) - Privacy-Preserving Image Classification in the Local Setting [17.375582978294105]
ローカル微分プライバシ(LDP)は、データ所有者がランダムにインプットを摂動させ、リリース前にデータの妥当な削除を可能にする、有望なソリューションを提供する。
本稿では、データ所有者が画像を保持し、不信なデータ利用者が機械学習モデルにこれらの画像を入力として適合させたいという、双方向のイメージ分類問題について考察する。
本稿では,拡張性のある領域サイズで画像表現を生成する,教師付き画像特徴抽出器 DCAConv を提案する。
論文 参考訳(メタデータ) (2020-02-09T01:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。