論文の概要: Defense Against Adversarial Attacks on Audio DeepFake Detection
- arxiv url: http://arxiv.org/abs/2212.14597v2
- Date: Sat, 10 Jun 2023 18:48:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 01:40:04.963329
- Title: Defense Against Adversarial Attacks on Audio DeepFake Detection
- Title(参考訳): オーディオディープフェイク検出における敵攻撃対策
- Authors: Piotr Kawa, Marcin Plata, Piotr Syga
- Abstract要約: Audio DeepFakes (DF) は、ディープラーニングを用いて人工的に生成された発話である。
脅威を防ぐために、生成された音声を検出する複数のニューラルネットワークベースの手法が提案されている。
- 参考スコア(独自算出の注目度): 0.4511923587827302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Audio DeepFakes (DF) are artificially generated utterances created using deep
learning, with the primary aim of fooling the listeners in a highly convincing
manner. Their quality is sufficient to pose a severe threat in terms of
security and privacy, including the reliability of news or defamation. Multiple
neural network-based methods to detect generated speech have been proposed to
prevent the threats. In this work, we cover the topic of adversarial attacks,
which decrease the performance of detectors by adding superficial (difficult to
spot by a human) changes to input data. Our contribution contains evaluating
the robustness of 3 detection architectures against adversarial attacks in two
scenarios (white-box and using transferability) and enhancing it later by using
adversarial training performed by our novel adaptive training. Moreover, one of
the investigated architectures is RawNet3, which, to the best of our knowledge,
we adapted for the first time to DeepFake detection.
- Abstract(参考訳): ディープフェイク(英: Audio DeepFakes, DF)は、ディープラーニングを用いて人工的に生成された発話であり、リスナーを非常に説得力のある方法で騙すことが主な目的である。
彼らの品質は、ニュースの信頼性や破壊など、セキュリティとプライバシーの面で深刻な脅威をもたらすのに十分である。
脅威を回避するために,複数のニューラルネットワークを用いた生成音声検出手法が提案されている。
本研究は,入力データに表面的(人によって見分けにくい)変化を加えることで,検出器の性能を低下させる敵対的攻撃の話題を扱っている。
本研究は,2つのシナリオ(ホワイトボックスとトランスファービリティ)における敵意攻撃に対する3つの検出アーキテクチャのロバスト性を評価し,新しい適応訓練による敵意トレーニングを用いて後から強化することを含む。
さらに、調査されたアーキテクチャのひとつがRawNet3で、私たちの知る限り、私たちは初めてDeepFake検出に適応しました。
関連論文リスト
- Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Detecting Backdoors in Deep Text Classifiers [43.36440869257781]
本稿では,テキスト分類モデルに対するバックドア攻撃を一般化する,最初の堅牢な防御機構を提案する。
我々の技術は、データ中毒や重毒など、最先端のバックドア攻撃に対する防御に極めて正確です。
論文 参考訳(メタデータ) (2022-10-11T07:48:03Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Robust Federated Learning Against Adversarial Attacks for Speech Emotion
Recognition [12.024098046435796]
音声データは、インターネット・オブ・シング・アプリケーションのサーバにアップロードされ、処理されると保護できない。
ディープニューラルネットワークは、人間と区別できない敵の摂動に弱いことが証明されている。
本稿では,データと深層ニューラルネットワークの両方を保護するための新しい対角学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-09T13:19:26Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Adversarial Attack and Defense Strategies for Deep Speaker Recognition
Systems [44.305353565981015]
本稿では, 深層話者認識システムに対する最先端の敵攻撃について考察し, 強力な防御手法を対策として用いた。
実験により、話者認識システムは敵攻撃に弱いことが示され、最も強い攻撃はシステムの精度を94%から0%に下げることができる。
論文 参考訳(メタデータ) (2020-08-18T00:58:19Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。