論文の概要: Attacks and Defenses for Free-Riders in Multi-Discriminator GAN
- arxiv url: http://arxiv.org/abs/2201.09967v1
- Date: Mon, 24 Jan 2022 21:38:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 16:13:39.656631
- Title: Attacks and Defenses for Free-Riders in Multi-Discriminator GAN
- Title(参考訳): マルチディスクリミネータGANにおけるフリーライダーの攻撃と防御
- Authors: Zilong Zhao, Jiyue Huang, Stefanie Roos, Lydia Y. Chen
- Abstract要約: フリーライダーは、実データと区別できない画像を生成するMD-GANの能力を劇的に削減する。
本稿では,DFG と呼ばれる MD-GAN におけるフリーライダーに対する防衛戦略を提案する。
我々は、識別器ネットワークのピア交換を可能にするMD-GANの変種において、識別器がフリーライダーをフィルタリングできるようにするため、DFG+と呼ばれる防衛を拡大する。
- 参考スコア(独自算出の注目度): 9.060263645085564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) are increasingly adopted by the
industry to synthesize realistic images. Due to data not being centrally
available, Multi-Discriminator (MD)-GANs training framework employs multiple
discriminators that have direct access to the real data. Distributedly training
a joint GAN model entails the risk of free-riders, i.e., participants that aim
to benefit from the common model while only pretending to participate in the
training process. In this paper, we conduct the first characterization study of
the impact of free-riders on MD-GAN. Based on two production prototypes of
MD-GAN, we find that free-riders drastically reduce the ability of MD-GANs to
produce images that are indistinguishable from real data, i.e., they increase
the FID score -- the standard measure to assess the quality of generated
images. To mitigate the model degradation, we propose a defense strategy
against free-riders in MD-GAN, termed DFG. DFG distinguishes free-riders and
benign participants through periodic probing and clustering of discriminators'
responses based on a reference response of free-riders, which then allows the
generator to exclude the detected free-riders from the training. Furthermore,
we extend our defense, termed DFG+, to enable discriminators to filter out
free-riders at the variant of MD-GAN that allows peer exchanges of
discriminators networks. Extensive evaluation on various scenarios of
free-riders, MD-GAN architecture, and three datasets show that our defenses
effectively detect free-riders. With 1 to 5 free-riders, DFG and DFG+ averagely
decreases FID by 5.22% to 11.53% for CIFAR10 and 5.79% to 13.22% for CIFAR100
in comparison to an attack without defense. In a shell, the proposed DFG(+) can
effectively defend against free-riders without affecting benign clients at a
negligible computation overhead.
- Abstract(参考訳): generative adversarial networks (gans) は、現実のイメージを合成するために業界によって採用されている。
データが集中的に利用できないため、Multi-Discriminator (MD)-GANsトレーニングフレームワークでは、実際のデータに直接アクセスする複数の識別器を使用している。
ジョイントGANモデルの分散トレーニングには,トレーニングプロセスに参加するふりをしながら,共通モデルの恩恵を受けることを目的とした,フリーライダーのリスクが伴う。
本稿では,md-ganに対するfree-ridersの影響について,第1報のキャラクタリゼーション研究を行う。
MD-GANの2つの生産プロトタイプに基づいて、フリーライダーは実データと区別できない画像を生成するMD-GANの能力を劇的に削減し、生成した画像の品質を評価するための標準指標であるFIDスコアを増大させる。
モデル劣化を軽減するため, DFG と呼ばれる MD-GAN のフリーライダーに対する防御戦略を提案する。
DFGは、フリーライダーの参照応答に基づいて、周期的な探索とクラスタリングによって、フリーライダーと良心的参加者を区別し、検出されたフリーライダーをトレーニングから除外することができる。
さらに,識別器ネットワークのピア交換が可能なMD-GANの変種において,識別器がフリーライダーをフィルタリングできるようにするため,DFG+と呼ばれる防衛を拡大する。
フリーライダー,MD-GANアーキテクチャ,および3つのデータセットの様々なシナリオに対する広範囲な評価は,我々の防衛が効果的にフリーライダーを検出することを示す。
DFGとDFG+はFIDを平均5.22%、CIFAR10は11.53%、CIFAR100は5.79%、CIFAR100は13.22%に減少させる。
シェルでは、提案したDFG(+)は、無視できる計算オーバーヘッドで良質なクライアントに影響を与えることなく、効果的にフリーライダーを防御することができる。
関連論文リスト
- No Free Lunch: Retrieval-Augmented Generation Undermines Fairness in LLMs, Even for Vigilant Users [21.25007065608671]
Retrieval-Augmented Generation (RAG) はその有効性とコスト効率に広く採用されている。
本研究では,フェアネスのユーザ認識の観点から,現実的な3段階の脅威モデルを提案する。
我々は,RAGの公正性について,検閲されていない,部分的に検閲された,完全に検閲されたデータセットを用いて検討した。
論文 参考訳(メタデータ) (2024-10-10T03:51:58Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Alternating Objectives Generates Stronger PGD-Based Adversarial Attacks [78.2700757742992]
Projected Gradient Descent (PGD) は、そのような敵を生成するための最も効果的で概念的にシンプルなアルゴリズムの1つである。
この主張を合成データの例で実験的に検証し、提案手法を25の$ell_infty$-robustモデルと3つのデータセットで評価した。
私たちの最強の敵攻撃は、AutoAttackアンサンブルのすべてのホワイトボックスコンポーネントより優れています。
論文 参考訳(メタデータ) (2022-12-15T17:44:31Z) - Backdoor Attack and Defense in Federated Generative Adversarial
Network-based Medical Image Synthesis [15.41200827860072]
フェデレートラーニング(FL)は、分散データを使用して、生データをローカルに保持しながら、中央モデルをトレーニングする方法を提供する。
バックドア攻撃には弱いが、訓練データに毒を盛ることによる敵の攻撃である。
ほとんどのバックドア攻撃戦略は、分類モデルと集中型ドメインに焦点を当てている。
本稿では,FL設定におけるバックドア攻撃を効果的かつ効果的に防御するFedDetectを提案する。
論文 参考訳(メタデータ) (2022-10-19T21:03:34Z) - Rethinking the Defense Against Free-rider Attack From the Perspective of
Model Weight Evolving Frequency [8.240778131695352]
Federated Learning(FL)は、複数のクライアントがデータを交換することなく、共同モデルを共同でトレーニングする分散機械学習アプローチである。
FLはデータプライバシ保護において前例のない成功を収めたが、フリーライダー攻撃に対する脆弱性が注目されている。
本稿では,WEF-Defenseと呼ばれる重み付き周波数モデルに基づく新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-11T03:11:13Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Fabricated Flips: Poisoning Federated Learning without Data [9.060263645085564]
フェデレートラーニング(FL)に対する攻撃は、生成されたモデルの品質を大幅に低下させる。
本稿では、悪意のあるデータを合成し、敵対的モデルを構築するデータフリーな未標的攻撃(DFA)を提案する。
DFAは、最先端の未標的攻撃と同じような、あるいはそれ以上の攻撃成功率を達成する。
論文 参考訳(メタデータ) (2022-02-07T20:38:28Z) - Training GANs with Stronger Augmentations via Contrastive Discriminator [80.8216679195]
本稿では,gan判別器にコントラスト表現学習方式を導入する。
この「融合」により、識別者は訓練の不安定さを増すことなく、より強力な増強に対処できる。
実験の結果,contratd付きganはfidを一貫して改善し,データ拡張を組み込んだ他の手法と比較した。
論文 参考訳(メタデータ) (2021-03-17T16:04:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。