論文の概要: Malafide: a novel adversarial convolutive noise attack against deepfake
and spoofing detection systems
- arxiv url: http://arxiv.org/abs/2306.07655v1
- Date: Tue, 13 Jun 2023 09:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 14:22:20.745884
- Title: Malafide: a novel adversarial convolutive noise attack against deepfake
and spoofing detection systems
- Title(参考訳): malafide: ディープフェイクおよびスプーフィング検出システムに対する新しい対向的畳み込み雑音攻撃
- Authors: Michele Panariello, Wanying Ge, Hemlata Tak, Massimiliano Todisco and
Nicholas Evans
- Abstract要約: 本稿では、自動話者検証(ASV)スプーフィング対策(CM)に対する普遍的対人攻撃であるマラフィドについて述べる。
最適化線形時間不変フィルタを用いて畳み込み雑音を導入することで、品質や話者の声などの他の音声特性を保ちながらCM信頼性を損なうことができる。
- 参考スコア(独自算出の注目度): 11.863708392605444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Malafide, a universal adversarial attack against automatic speaker
verification (ASV) spoofing countermeasures (CMs). By introducing convolutional
noise using an optimised linear time-invariant filter, Malafide attacks can be
used to compromise CM reliability while preserving other speech attributes such
as quality and the speaker's voice. In contrast to other adversarial attacks
proposed recently, Malafide filters are optimised independently of the input
utterance and duration, are tuned instead to the underlying spoofing attack,
and require the optimisation of only a small number of filter coefficients.
Even so, they degrade CM performance estimates by an order of magnitude, even
in black-box settings, and can also be configured to overcome integrated CM and
ASV subsystems. Integrated solutions that use self-supervised learning CMs,
however, are more robust, under both black-box and white-box settings.
- Abstract(参考訳): 本稿では,自動話者検証(ASV)スプーフィング対策(CM)に対する普遍的対人攻撃であるマラフィドについて述べる。
最適化線形時間不変フィルタを用いて畳み込み雑音を導入することで、品質や話者の声などの他の音声特性を保ちながらCM信頼性を損なうことができる。
最近提案された他の敵対的攻撃とは対照的に、マラフィドフィルタは入力発話と持続時間とは独立に最適化され、基礎となるスプーフィング攻撃の代わりに調整され、少数のフィルタ係数のみの最適化を必要とする。
それでも、ブラックボックスの設定でもcmパフォーマンスの見積もりを桁違いに低下させ、統合cmおよびasvサブシステムも克服するように設定できる。
しかし、自己教師付き学習cmsを使用する統合ソリューションは、ブラックボックスとホワイトボックスの両方の設定下でより堅牢である。
関連論文リスト
- Toward Improving Synthetic Audio Spoofing Detection Robustness via Meta-Learning and Disentangled Training With Adversarial Examples [33.445126880876415]
自動話者検証システムに到達させる代わりに、スプーフ攻撃をフィルタリングする信頼性と堅牢なスプーフ検出システムを提案する。
データ不均衡問題に対処するために重み付き加法的角縁損失が提案され、スプーフィング攻撃に対する一般化を改善するために異なるマージンが割り当てられている。
データ拡張戦略として、スプーフィング音声に知覚不能な摂動を加えて、敵の例にのみ対応する正規化統計が実行されることを保証するために、補助的なバッチ正規化を用いる。
論文 参考訳(メタデータ) (2024-08-23T19:26:54Z) - Iterative Window Mean Filter: Thwarting Diffusion-based Adversarial Purification [26.875621618432504]
顔認証システムは、敵攻撃のような目立たない摂動に敏感なため、信頼性が低い。
我々はIWMF (Iterative Window Mean Filter) と呼ばれる,新しい非深層学習に基づく画像フィルタを開発した。
我々は,IWMFと拡散モデルを統合した,IWMF-Diffという逆浄化のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-20T09:19:43Z) - Malacopula: adversarial automatic speaker verification attacks using a neural-based generalised Hammerstein model [23.942915856543387]
本稿では,ニューラルベースで一般化されたハマースタインモデルであるマラコプラについて述べる。
非線形プロセスを用いて音声の発話を修正することで、マラコプラはスプーフィング攻撃の有効性を高める。
論文 参考訳(メタデータ) (2024-08-17T21:58:11Z) - Frame-to-Utterance Convergence: A Spectra-Temporal Approach for Unified
Spoofing Detection [6.713879688002623]
既存のアンチ・スプーフィング法は、しばしば合成攻撃やリプレイ攻撃のような特定の攻撃タイプをシミュレートする。
現在の統合されたソリューションは、偽造品を検出するのに苦労している。
フレームレベルおよび発話レベル係数を利用したスペクトル時間融合を提案する。
論文 参考訳(メタデータ) (2023-09-18T14:54:42Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Tackling Spoofing-Aware Speaker Verification with Multi-Model Fusion [88.34134732217416]
この研究は、融合に基づくSASVソリューションに焦点を当て、複数の最先端 ASV と CM モデルのパワーを利用するマルチモデル融合フレームワークを提案する。
提案したフレームワークはSASV-EERを8.75%から1.17%に大幅に改善している。
論文 参考訳(メタデータ) (2022-06-18T06:41:06Z) - Practical Attacks on Voice Spoofing Countermeasures [3.388509725285237]
悪意あるアクターが、音声認証を最も厳格な形でバイパスするために、音声サンプルを効率的に作ることができることを示す。
本研究の結果は,攻撃者の脅威を回避し,現代の音声認証システムのセキュリティに疑問を投げかけるものである。
論文 参考訳(メタデータ) (2021-07-30T14:07:49Z) - Towards Robust Speech-to-Text Adversarial Attack [78.5097679815944]
本稿では,DeepSpeech,Kaldi,Lingvoなど,最先端の音声テキストシステムに対する新たな逆アルゴリズムを提案する。
本手法は, 逆最適化定式化の従来の歪み条件の拡張を開発することに基づいている。
元のサンプルと反対のサンプルの分布の差を測定するこの測定値の最小化は、正統な音声記録のサブスペースに非常に近い作成信号に寄与する。
論文 参考訳(メタデータ) (2021-03-15T01:51:41Z) - Adversarial Robustness by Design through Analog Computing and Synthetic
Gradients [80.60080084042666]
光コプロセッサにインスパイアされた敵攻撃に対する新しい防御機構を提案する。
ホワイトボックス設定では、我々の防御はランダム投影のパラメータを難読化することで機能する。
光学系におけるランダムプロジェクションとバイナライゼーションの組み合わせにより、様々な種類のブラックボックス攻撃に対するロバスト性も向上する。
論文 参考訳(メタデータ) (2021-01-06T16:15:29Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。