論文の概要: ConfounderGAN: Protecting Image Data Privacy with Causal Confounder
- arxiv url: http://arxiv.org/abs/2212.01767v1
- Date: Sun, 4 Dec 2022 08:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 15:37:58.797781
- Title: ConfounderGAN: Protecting Image Data Privacy with Causal Confounder
- Title(参考訳): ConfounderGAN:Causal Confounderで画像データのプライバシーを保護する
- Authors: Qi Tian, Kun Kuang, Kelu Jiang, Furui Liu, Zhihua Wang, Fei Wu
- Abstract要約: 本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
- 参考スコア(独自算出の注目度): 85.6757153033139
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of deep learning is partly attributed to the availability of
massive data downloaded freely from the Internet. However, it also means that
users' private data may be collected by commercial organizations without
consent and used to train their models. Therefore, it's important and necessary
to develop a method or tool to prevent unauthorized data exploitation. In this
paper, we propose ConfounderGAN, a generative adversarial network (GAN) that
can make personal image data unlearnable to protect the data privacy of its
owners. Specifically, the noise produced by the generator for each image has
the confounder property. It can build spurious correlations between images and
labels, so that the model cannot learn the correct mapping from images to
labels in this noise-added dataset. Meanwhile, the discriminator is used to
ensure that the generated noise is small and imperceptible, thereby remaining
the normal utility of the encrypted image for humans. The experiments are
conducted in six image classification datasets, consisting of three natural
object datasets and three medical datasets. The results demonstrate that our
method not only outperforms state-of-the-art methods in standard settings, but
can also be applied to fast encryption scenarios. Moreover, we show a series of
transferability and stability experiments to further illustrate the
effectiveness and superiority of our method.
- Abstract(参考訳): ディープラーニングの成功の一部は、インターネットから自由にダウンロードされた大量のデータの提供によるものだ。
しかし、これはまた、ユーザのプライベートデータが同意なく商業組織によって収集され、モデルのトレーニングに使用されることも意味している。
そのため、不正なデータ利用を防止する方法やツールを開発することが重要である。
本稿では,個人の画像データを管理不能にし,所有者のデータプライバシを保護することを目的とした,gan(generative adversarial network)であるconfounderganを提案する。
具体的には、画像毎にジェネレータが生成するノイズは、共起特性を有する。
画像とラベルの間にスパーラスな相関関係を構築することができるため、このノイズ付加データセットでは、モデルが画像からラベルへの正しいマッピングを学習できない。
一方、この判別器は、生成されたノイズが小さく知覚不能であることを保証するために使用され、人間の暗号化画像の正常な有用性が保たれる。
3つの自然オブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実験を行った。
その結果,本手法は,標準設定において最先端メソッドよりも優れるだけでなく,高速な暗号化シナリオにも適用できることがわかった。
さらに,本手法の有効性と優位性を示すために,一連の伝達性および安定性実験を示す。
関連論文リスト
- Towards Reliable Verification of Unauthorized Data Usage in Personalized Text-to-Image Diffusion Models [23.09033991200197]
新しいパーソナライズ技術は、特定のテーマやスタイルのイメージを作成するために、事前訓練されたベースモデルをカスタマイズするために提案されている。
このような軽量なソリューションは、パーソナライズされたモデルが不正なデータからトレーニングされているかどうかに関して、新たな懸念を生じさせる。
我々は、ブラックボックスパーソナライズされたテキスト・ツー・イメージ拡散モデルにおいて、不正なデータ使用を積極的に追跡する新しい手法であるSIRENを紹介する。
論文 参考訳(メタデータ) (2024-10-14T12:29:23Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - Only My Model On My Data: A Privacy Preserving Approach Protecting one
Model and Deceiving Unauthorized Black-Box Models [11.59117790048892]
本研究では、認証されたモデルによる正確な推論を維持する人間認識可能な画像を生成することにより、未調査の実用的プライバシー保護ユースケースに取り組む。
その結果、生成した画像は、保護されたモデルの精度を維持し、認証されていないブラックボックスモデルの平均精度を、ImageNet、Celeba-HQ、AffectNetのデータセットでそれぞれ11.97%、6.63%、55.51%に下げることができた。
論文 参考訳(メタデータ) (2024-02-14T17:11:52Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Synthetic Dataset Generation for Privacy-Preserving Machine Learning [7.489265323050362]
本稿では,従来のプライベートデータセットからセキュアな合成データセットを生成する手法を提案する。
提案手法は,様々なプライバシー侵害攻撃下でデータプライバシを保護していることを示す。
論文 参考訳(メタデータ) (2022-10-06T20:54:52Z) - Content-Aware Differential Privacy with Conditional Invertible Neural
Networks [0.7102341019971402]
Invertible Neural Networks (INNs) は、正確な精度を定量化しながら、優れた生成性能を示した。
INNの潜在空間に雑音を加えることで、差分プライベートな画像修正が可能になるという仮説を立てる。
利用可能なベンチマークデータセットと専用の医療データセットの実験を行います。
論文 参考訳(メタデータ) (2022-07-29T11:52:16Z) - Learning to See by Looking at Noise [87.12788334473295]
簡単なランダムなプロセスから画像を生成する一連の画像生成モデルについて検討する。
これらは、対照的な損失を伴う視覚表現学習者のトレーニングデータとして使用される。
以上の結果から,実データの構造的特性を捉えることはノイズにとって重要であるが,現実的ではないプロセスでも良好な性能が達成できることが示唆された。
論文 参考訳(メタデータ) (2021-06-10T17:56:46Z) - Data-driven Meta-set Based Fine-Grained Visual Classification [61.083706396575295]
本稿では, ノイズの多いWeb画像に対して, 微粒化認識のためのデータ駆動型メタセットベースアプローチを提案する。
具体的には、少量のクリーンなメタセットでガイドされ、メタラーニング方式で選択ネットを訓練し、分布内および分布外ノイズ画像の識別を行う。
論文 参考訳(メタデータ) (2020-08-06T03:04:16Z) - Privacy-Preserving Image Classification in the Local Setting [17.375582978294105]
ローカル微分プライバシ(LDP)は、データ所有者がランダムにインプットを摂動させ、リリース前にデータの妥当な削除を可能にする、有望なソリューションを提供する。
本稿では、データ所有者が画像を保持し、不信なデータ利用者が機械学習モデルにこれらの画像を入力として適合させたいという、双方向のイメージ分類問題について考察する。
本稿では,拡張性のある領域サイズで画像表現を生成する,教師付き画像特徴抽出器 DCAConv を提案する。
論文 参考訳(メタデータ) (2020-02-09T01:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。