論文の概要: Membership Privacy Protection for Image Translation Models via
Adversarial Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2203.05212v1
- Date: Thu, 10 Mar 2022 07:44:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 15:36:41.537407
- Title: Membership Privacy Protection for Image Translation Models via
Adversarial Knowledge Distillation
- Title(参考訳): 逆知識蒸留による画像翻訳モデルの会員プライバシー保護
- Authors: Saeed Ranjbar Alvar, Lanjun Wang, Jian Pei, Yong Zhang
- Abstract要約: 画像から画像への変換モデルは、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,画像から画像への変換モデルに対するMIAに対する防御手法として,逆知識蒸留(AKD)を提案する。
画像から画像への変換モデルの実験を行い、AKDが最先端のユーティリティ・プライバシトレードオフを実現することを示す。
- 参考スコア(独自算出の注目度): 60.20442796180881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-to-image translation models are shown to be vulnerable to the
Membership Inference Attack (MIA), in which the adversary's goal is to identify
whether a sample is used to train the model or not. With daily increasing
applications based on image-to-image translation models, it is crucial to
protect the privacy of these models against MIAs.
We propose adversarial knowledge distillation (AKD) as a defense method
against MIAs for image-to-image translation models. The proposed method
protects the privacy of the training samples by improving the generalizability
of the model. We conduct experiments on the image-to-image translation models
and show that AKD achieves the state-of-the-art utility-privacy tradeoff by
reducing the attack performance up to 38.9% compared with the regular training
model at the cost of a slight drop in the quality of the generated output
images. The experimental results also indicate that the models trained by AKD
generalize better than the regular training models. Furthermore, compared with
existing defense methods, the results show that at the same privacy protection
level, image translation models trained by AKD generate outputs with higher
quality; while at the same quality of outputs, AKD enhances the privacy
protection over 30%.
- Abstract(参考訳): 画像から画像への変換モデルは、モデルのトレーニングにサンプルが使用されているかどうかを特定することを目的としているメンバーシップ推論攻撃(MIA)に対して脆弱であることが示されている。
画像から画像への変換モデルに基づく日々のアプリケーションの増加に伴い、これらのモデルのプライバシをMIAから保護することが重要である。
画像から画像への変換モデルに対するMIAに対する防御手法として,逆知識蒸留(AKD)を提案する。
提案手法は,モデルの一般化性を向上させることにより,トレーニングサンプルのプライバシを保護する。
画像から画像への変換モデルの実験を行い、AKDが出力画像の品質をわずかに低下させることで、攻撃性能を38.9%まで下げることにより、最先端のユーティリティ・プライバシ・トレードオフを実現することを示す。
また, 実験結果から, AKDにより訓練されたモデルは, 通常の訓練モデルよりも一般化されていることが示された。
さらに,従来の防衛手法と比較して,AKDが訓練した画像翻訳モデルは,プライバシー保護レベルが同じであり,出力の品質が同じであるのに対して,AKDは30%以上のプライバシー保護を強化している。
関連論文リスト
- Unveiling Structural Memorization: Structural Membership Inference Attack for Text-to-Image Diffusion Models [17.946671657675022]
メンバー推論攻撃(MIA)は、プライバシ保護のためのツールとして機能するよう提案されている。
テキストから画像への拡散モデルに適した,シンプルで効果的なMIA手法を提案する。
我々の手法は、最先端の性能を達成するだけでなく、様々な歪みに対して顕著な堅牢性を示す。
論文 参考訳(メタデータ) (2024-07-18T08:07:28Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Ownership Protection of Generative Adversarial Networks [9.355840335132124]
GAN(Generative Adversarial Network)は画像合成において顕著な成功を収めている。
GANの知的財産を技術的に保護することは重要である。
本稿では,対象モデルの共通特性と盗難モデルに基づく新たな所有権保護手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:31:58Z) - Unlearnable Examples for Diffusion Models: Protect Data from Unauthorized Exploitation [25.55296442023984]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - A Comparative Study of Image Disguising Methods for Confidential
Outsourced Learning [5.73658856166614]
InstaHide と DisguizedNets という新しいエンフィメージ・ディスガージング機構について検討・比較を行った。
DisguisedNetsは、画像ブロック化、ブロックレベルのランダムな置換、および2つのブロックレベルのセキュアな変換を組み合わせた新しい組み合わせである。
InstaHideは画像ミックスアップとランダムピクセルフリップ技術である。
マルチレベル脅威モデルを用いて解析および評価を行った。
論文 参考訳(メタデータ) (2022-12-31T16:59:54Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - Minimum Noticeable Difference based Adversarial Privacy Preserving Image
Generation [44.2692621807947]
クリーンなものと最小限の知覚差を持つが、ディープラーニングモデルに攻撃できる敵対的プライバシ保護画像を生成するためのフレームワークを開発する。
我々の知る限りでは、これはプライバシー保護のためのMND概念に基づく品質保護の敵画像生成を探求する最初の試みである。
論文 参考訳(メタデータ) (2022-06-17T09:02:12Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。