論文の概要: Malafide: a novel adversarial convolutive noise attack against deepfake
and spoofing detection systems
- arxiv url: http://arxiv.org/abs/2306.07655v1
- Date: Tue, 13 Jun 2023 09:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 14:22:20.745884
- Title: Malafide: a novel adversarial convolutive noise attack against deepfake
and spoofing detection systems
- Title(参考訳): malafide: ディープフェイクおよびスプーフィング検出システムに対する新しい対向的畳み込み雑音攻撃
- Authors: Michele Panariello, Wanying Ge, Hemlata Tak, Massimiliano Todisco and
Nicholas Evans
- Abstract要約: 本稿では、自動話者検証(ASV)スプーフィング対策(CM)に対する普遍的対人攻撃であるマラフィドについて述べる。
最適化線形時間不変フィルタを用いて畳み込み雑音を導入することで、品質や話者の声などの他の音声特性を保ちながらCM信頼性を損なうことができる。
- 参考スコア(独自算出の注目度): 11.863708392605444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Malafide, a universal adversarial attack against automatic speaker
verification (ASV) spoofing countermeasures (CMs). By introducing convolutional
noise using an optimised linear time-invariant filter, Malafide attacks can be
used to compromise CM reliability while preserving other speech attributes such
as quality and the speaker's voice. In contrast to other adversarial attacks
proposed recently, Malafide filters are optimised independently of the input
utterance and duration, are tuned instead to the underlying spoofing attack,
and require the optimisation of only a small number of filter coefficients.
Even so, they degrade CM performance estimates by an order of magnitude, even
in black-box settings, and can also be configured to overcome integrated CM and
ASV subsystems. Integrated solutions that use self-supervised learning CMs,
however, are more robust, under both black-box and white-box settings.
- Abstract(参考訳): 本稿では,自動話者検証(ASV)スプーフィング対策(CM)に対する普遍的対人攻撃であるマラフィドについて述べる。
最適化線形時間不変フィルタを用いて畳み込み雑音を導入することで、品質や話者の声などの他の音声特性を保ちながらCM信頼性を損なうことができる。
最近提案された他の敵対的攻撃とは対照的に、マラフィドフィルタは入力発話と持続時間とは独立に最適化され、基礎となるスプーフィング攻撃の代わりに調整され、少数のフィルタ係数のみの最適化を必要とする。
それでも、ブラックボックスの設定でもcmパフォーマンスの見積もりを桁違いに低下させ、統合cmおよびasvサブシステムも克服するように設定できる。
しかし、自己教師付き学習cmsを使用する統合ソリューションは、ブラックボックスとホワイトボックスの両方の設定下でより堅牢である。
関連論文リスト
- Generalizing Speaker Verification for Spoof Awareness in the Embedding
Space [30.094557217931563]
ASVシステムは様々な種類の敵を用いて偽造することができる。
本稿では,ディープニューラルネットワークに基づく新しいバックエンド分類手法を提案する。
ASVspoof 2019論理アクセスデータセットで実験が行われる。
論文 参考訳(メタデータ) (2024-01-20T07:30:22Z) - Frame-to-Utterance Convergence: A Spectra-Temporal Approach for Unified
Spoofing Detection [6.713879688002623]
既存のアンチ・スプーフィング法は、しばしば合成攻撃やリプレイ攻撃のような特定の攻撃タイプをシミュレートする。
現在の統合されたソリューションは、偽造品を検出するのに苦労している。
フレームレベルおよび発話レベル係数を利用したスペクトル時間融合を提案する。
論文 参考訳(メタデータ) (2023-09-18T14:54:42Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Tackling Spoofing-Aware Speaker Verification with Multi-Model Fusion [88.34134732217416]
この研究は、融合に基づくSASVソリューションに焦点を当て、複数の最先端 ASV と CM モデルのパワーを利用するマルチモデル融合フレームワークを提案する。
提案したフレームワークはSASV-EERを8.75%から1.17%に大幅に改善している。
論文 参考訳(メタデータ) (2022-06-18T06:41:06Z) - Optimizing Tandem Speaker Verification and Anti-Spoofing Systems [45.66319648049384]
本稿では,t-DCFの微分可能なバージョンを作成し,強化学習の手法を用いてタンデムシステムを直接最適化することを提案する。
この手法は,ASVSpoof19データセットにおけるt-DCFの相対的改善率を20%向上させる。
論文 参考訳(メタデータ) (2022-01-24T14:27:28Z) - Practical Attacks on Voice Spoofing Countermeasures [3.388509725285237]
悪意あるアクターが、音声認証を最も厳格な形でバイパスするために、音声サンプルを効率的に作ることができることを示す。
本研究の結果は,攻撃者の脅威を回避し,現代の音声認証システムのセキュリティに疑問を投げかけるものである。
論文 参考訳(メタデータ) (2021-07-30T14:07:49Z) - Towards Robust Speech-to-Text Adversarial Attack [78.5097679815944]
本稿では,DeepSpeech,Kaldi,Lingvoなど,最先端の音声テキストシステムに対する新たな逆アルゴリズムを提案する。
本手法は, 逆最適化定式化の従来の歪み条件の拡張を開発することに基づいている。
元のサンプルと反対のサンプルの分布の差を測定するこの測定値の最小化は、正統な音声記録のサブスペースに非常に近い作成信号に寄与する。
論文 参考訳(メタデータ) (2021-03-15T01:51:41Z) - Adversarial Robustness by Design through Analog Computing and Synthetic
Gradients [80.60080084042666]
光コプロセッサにインスパイアされた敵攻撃に対する新しい防御機構を提案する。
ホワイトボックス設定では、我々の防御はランダム投影のパラメータを難読化することで機能する。
光学系におけるランダムプロジェクションとバイナライゼーションの組み合わせにより、様々な種類のブラックボックス攻撃に対するロバスト性も向上する。
論文 参考訳(メタデータ) (2021-01-06T16:15:29Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。