論文の概要: Spoofing attack augmentation: can differently-trained attack models improve generalisation?
- arxiv url: http://arxiv.org/abs/2309.09586v2
- Date: Mon, 8 Jan 2024 14:50:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 04:30:16.308299
- Title: Spoofing attack augmentation: can differently-trained attack models improve generalisation?
- Title(参考訳): スポーフィング攻撃増強:異なる訓練された攻撃モデルは一般化を改善することができるか?
- Authors: Wanying Ge, Xin Wang, Junichi Yamagishi, Massimiliano Todisco, Nicholas Evans,
- Abstract要約: 確実なディープフェイク検知またはスプーフ対策は、予測不可能なスプーフ攻撃に直面して堅牢であるべきである。
本論文では,スプーフィング攻撃の有効性,およびディープラーニングに基づく効果が,訓練条件に応じて同様に変化することを示す。
RawNet2 CMモデルでは攻撃アルゴリズムへの調整のみを行うと脆弱になるが、グラフ注意ネットワークと自己教師型学習に基づくモデルは確実に堅牢である。
- 参考スコア(独自算出の注目度): 38.02444175596806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A reliable deepfake detector or spoofing countermeasure (CM) should be robust in the face of unpredictable spoofing attacks. To encourage the learning of more generaliseable artefacts, rather than those specific only to known attacks, CMs are usually exposed to a broad variety of different attacks during training. Even so, the performance of deep-learning-based CM solutions are known to vary, sometimes substantially, when they are retrained with different initialisations, hyper-parameters or training data partitions. We show in this paper that the potency of spoofing attacks, also deep-learning-based, can similarly vary according to training conditions, sometimes resulting in substantial degradations to detection performance. Nevertheless, while a RawNet2 CM model is vulnerable when only modest adjustments are made to the attack algorithm, those based upon graph attention networks and self-supervised learning are reassuringly robust. The focus upon training data generated with different attack algorithms might not be sufficient on its own to ensure generaliability; some form of spoofing attack augmentation at the algorithm level can be complementary.
- Abstract(参考訳): 信頼性の高いディープフェイク検出器やスプーフ対策(CM)は、予測不可能なスプーフ攻撃に直面して堅牢であるべきである。
既知の攻撃に限らず、より一般化可能なアーティファクトの学習を促進するため、CMは通常、訓練中に様々な種類の攻撃にさらされる。
それでも、ディープラーニングベースのCMソリューションのパフォーマンスは、異なる初期化やハイパーパラメータ、トレーニングデータパーティションで再トレーニングされた場合、大きく変化することが知られている。
本稿では,スプーフィング攻撃の有効性(ディープラーニングベース)が訓練条件によっても同様に変化し,検出性能が著しく低下することを示す。
しかしながら,攻撃アルゴリズムに対する調整のみを行う場合,RawNet2 CMモデルは脆弱であるが,グラフアテンションネットワークと自己教師型学習に基づくモデルは確実に堅牢である。
異なる攻撃アルゴリズムで生成されたトレーニングデータに焦点を合わせることは、汎用性を確保するのに十分ではないかもしれない。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Learning the Unlearnable: Adversarial Augmentations Suppress Unlearnable
Example Attacks [21.633448874100004]
学習不能な例攻撃は、ディープラーニングモデルをトレーニングするための許可されていない使用に対して、公開データを保護するために使用することができる。
UEraser法は、未学習の事例攻撃に対する現在の防御よりも優れる。
私たちのコードはオープンソースで、ディープラーニングコミュニティで利用できます。
論文 参考訳(メタデータ) (2023-03-27T12:00:54Z) - Availability Adversarial Attack and Countermeasures for Deep
Learning-based Load Forecasting [1.4112444998191698]
ディープニューラルネットワークは敵の攻撃を受けやすい。
本稿では,攻撃者がより容易に実装可能な,アベイラビリティに基づく敵攻撃を提案する。
敵の訓練アルゴリズムは、アベイラビリティーアタックに対するロバスト性を大幅に改善する。
論文 参考訳(メタデータ) (2023-01-04T21:54:32Z) - Detection and Mitigation of Byzantine Attacks in Distributed Training [24.951227624475443]
ワーカノードの異常なビザンチン挙動は、トレーニングを脱線させ、推論の品質を損なう可能性がある。
最近の研究は、幅広い攻撃モデルを検討し、歪んだ勾配を補正するために頑健な集約と/または計算冗長性を探究している。
本研究では、強力な攻撃モデルについて検討する:$q$ omniscient adversaries with full knowledge of the defense protocol that can change from iteration to iteration to weak one: $q$ randomly selected adversaries with limited collusion abilities。
論文 参考訳(メタデータ) (2022-08-17T05:49:52Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Fast Adversarial Training with Adaptive Step Size [62.37203478589929]
トレーニングインスタンスの観点から,この現象を考察する。
適応ステップサイズ(ATAS)を用いた逆学習法を提案する。
ATASは、その勾配ノルムに逆比例するインスタンス順応的なステップサイズを学習する。
論文 参考訳(メタデータ) (2022-06-06T08:20:07Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Untargeted, Targeted and Universal Adversarial Attacks and Defenses on
Time Series [0.0]
我々は,UCR時系列データセットに対して,対象外,対象外,普遍的敵攻撃を行った。
これらの攻撃に対して,ディープラーニングに基づく時系列分類モデルが脆弱であることを示す。
また、トレーニングデータのごく一部しか必要としないため、普遍的敵攻撃は優れた一般化特性を有することを示す。
論文 参考訳(メタデータ) (2021-01-13T13:00:51Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。