論文の概要: This Person (Probably) Exists. Identity Membership Attacks Against GAN
Generated Faces
- arxiv url: http://arxiv.org/abs/2107.06018v1
- Date: Tue, 13 Jul 2021 12:11:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 21:07:25.240106
- Title: This Person (Probably) Exists. Identity Membership Attacks Against GAN
Generated Faces
- Title(参考訳): この人物は(おそらく)存在する。
GAN生成顔に対するアイデンティティーメンバーシップ攻撃
- Authors: Ryan Webster and Julien Rabin and Loic Simon and Frederic Jurie
- Abstract要約: GAN(Generative Adversarial Network)は、人間のオブザーバーさえも騙して、驚くべきリアリズムを達成した。
GANは、最近文献で証明されたメンバーシップアタックによって証明されているように、トレーニングデータに関する情報をリークする。
本研究では,GANが実際に直面するのは,新しいタイプのメンバシップ攻撃を成功させることによって,新しい創造物である,という仮定に挑戦する。
- 参考スコア(独自算出の注目度): 6.270305440413689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, generative adversarial networks (GANs) have achieved stunning
realism, fooling even human observers. Indeed, the popular tongue-in-cheek
website {\small \url{ http://thispersondoesnotexist.com}}, taunts users with
GAN generated images that seem too real to believe. On the other hand, GANs do
leak information about their training data, as evidenced by membership attacks
recently demonstrated in the literature. In this work, we challenge the
assumption that GAN faces really are novel creations, by constructing a
successful membership attack of a new kind. Unlike previous works, our attack
can accurately discern samples sharing the same identity as training samples
without being the same samples. We demonstrate the interest of our attack
across several popular face datasets and GAN training procedures. Notably, we
show that even in the presence of significant dataset diversity, an over
represented person can pose a privacy concern.
- Abstract(参考訳): 最近、gans(generative adversarial network)は素晴らしい現実主義を実現し、人間のオブザーバーさえも騙している。
実際、人気の高いLong-in-cheek Webサイト {\small \url{ http://thispersondoesnotexist.com}}は、GANが生成した画像は、信じられないほどリアルに思える。
一方、GANは、最近文献で実証された会員攻撃による証拠として、トレーニングデータに関する情報を漏らしている。
本研究では,ganが真に新しい創造物であるという仮定に挑戦し,新たな種類の会員攻撃を成功させる。
以前の研究とは異なり、攻撃はトレーニングサンプルと同じアイデンティティを共有するサンプルを、同じサンプルであることなく正確に識別することができる。
いくつかの一般的な顔データセットとGANトレーニング手順にまたがって攻撃の関心を示す。
注目すべきは、重要なデータセットの多様性が存在する場合でも、過度に表現された人物がプライバシの懸念を抱く可能性があることだ。
関連論文リスト
- Black-Box Training Data Identification in GANs via Detector Networks [2.4554686192257424]
訓練されたGANへのアクセスと、基礎となる分布からの新鮮なサンプルが、攻撃者が与えられたポイントがGANのトレーニングデータのメンバーであるかどうかを効率的に識別できるかどうかを調査する。
これは、著作権のあるデータがGANのトレーニングに使用されたかどうかをユーザが判断したいという著作権に関する理由と、トレーニングセットのメンバシップを検出する能力がメンバシップ推論アタックとして知られているデータプライバシに関する理由の両方に興味深い。
ブラックボックス設定におけるGANに対するメンバーシップ推論攻撃のスイートを導入し、我々の攻撃を評価する。
論文 参考訳(メタデータ) (2023-10-18T15:53:20Z) - Backdoor Attack with Sparse and Invisible Trigger [55.403989956300215]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - An Ensemble Model for Face Liveness Detection [2.322052136673525]
本研究では,アンサンブル深層学習技術を用いて顔提示攻撃を検出する受動的手法を提案する。
本研究では,顔領域と背景領域の複数の特徴を学習し,ユーザがボナフィドか攻撃者かを予測するアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2022-01-19T12:43:39Z) - RealGait: Gait Recognition for Person Re-Identification [79.67088297584762]
我々は,既存の映像人物の再識別課題からシルエットを抽出し,制約のない方法で歩く1,404人からなる新たな歩行データセットを構築した。
以上の結果から、実際の監視シナリオにおける歩行による認識は実現可能であり、その基盤となる歩行パターンが、実際にビデオの人物認識が機能する真の理由である可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-13T06:30:56Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Defending against GAN-based Deepfake Attacks via Transformation-aware
Adversarial Faces [36.87244915810356]
Deepfakeは、機械学習モデルを活用するフェイススワッピング攻撃のカテゴリである。
本稿では,Deepfake攻撃に対する防御手段として,逆向きに乱れする新しい変形認識顔を提案する。
また, アンサンブルをベースとしたアプローチを用いて, GANベースのディープフェイク型に対する防御ロバスト性を高めることを提案する。
論文 参考訳(メタデータ) (2020-06-12T18:51:57Z) - Exploiting Defenses against GAN-Based Feature Inference Attacks in
Federated Learning [0.76146285961466]
我々は、連合学習におけるGANベースの攻撃に対する防御を活用。
攻撃者が被害者のデータの実際の分布を学習するのを防ぐためのフレームワークであるAnti-GANを提案する。
論文 参考訳(メタデータ) (2020-04-27T03:45:48Z) - ActGAN: Flexible and Efficient One-shot Face Reenactment [1.8431600219151503]
ActGANは、ワンショット顔再現のための新しいエンド・ツー・エンドな生成的敵ネットワーク(GAN)である。
我々は、ソースとターゲットの両方に任意の人が追加のトレーニングを受けることなく、"many-to-Many"アプローチを導入します。
また、深層顔認識領域における最先端のアプローチを採用することにより、合成された人物と対象人物の同一性を維持するためのソリューションも導入する。
論文 参考訳(メタデータ) (2020-03-30T22:03:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。