論文の概要: Rehearsal with Auxiliary-Informed Sampling for Audio Deepfake Detection
- arxiv url: http://arxiv.org/abs/2505.24486v1
- Date: Fri, 30 May 2025 11:40:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.928503
- Title: Rehearsal with Auxiliary-Informed Sampling for Audio Deepfake Detection
- Title(参考訳): オーディオディープフェイク検出のための補助インフォームドサンプリングによるリハーサル
- Authors: Falih Gozi Febrinanto, Kristen Moore, Chandra Thapa, Jiangang Ma, Vidya Saikrishna, Feng Xia,
- Abstract要約: Rehearsal with Auxiliary-Informed Smpling (RAIS)は、オーディオディープフェイク検出のためのリハーサルベースのCLアプローチである。
RAISはラベル生成ネットワークを使用して補助ラベルを生成し、メモリバッファの多様なサンプル選択を導く。
大規模な実験では、RAISは最先端の手法よりも優れており、5つの経験で平均1.953%のEER(Equal Error Rate)を達成する。
- 参考スコア(独自算出の注目度): 7.402342914903391
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of existing audio deepfake detection frameworks degrades when confronted with new deepfake attacks. Rehearsal-based continual learning (CL), which updates models using a limited set of old data samples, helps preserve prior knowledge while incorporating new information. However, existing rehearsal techniques don't effectively capture the diversity of audio characteristics, introducing bias and increasing the risk of forgetting. To address this challenge, we propose Rehearsal with Auxiliary-Informed Sampling (RAIS), a rehearsal-based CL approach for audio deepfake detection. RAIS employs a label generation network to produce auxiliary labels, guiding diverse sample selection for the memory buffer. Extensive experiments show RAIS outperforms state-of-the-art methods, achieving an average Equal Error Rate (EER) of 1.953 % across five experiences. The code is available at: https://github.com/falihgoz/RAIS.
- Abstract(参考訳): 既存のディープフェイク検出フレームワークのパフォーマンスは、新しいディープフェイク攻撃に直面すると劣化する。
リハーサルベースの継続学習(CL)は、古いデータサンプルの限られたセットを使用してモデルを更新する。
しかし、既存のリハーサル技術は、音声特性の多様性を効果的に捉えておらず、バイアスを導入し、忘れるリスクを増大させる。
この課題に対処するために、オーディオディープフェイク検出のためのリハーサルベースのCLアプローチであるAuxiliary-Informed Smpling (RAIS) を用いたリハーサルを提案する。
RAISはラベル生成ネットワークを使用して補助ラベルを生成し、メモリバッファの多様なサンプル選択を導く。
大規模な実験では、RAISは最先端の手法よりも優れており、5つの経験で平均1.953%のEER(Equal Error Rate)を達成する。
コードは、https://github.com/falihgoz/RAIS.comで入手できる。
関連論文リスト
- Statistics-aware Audio-visual Deepfake Detector [11.671275975119089]
オーディオ・ヴィジュアルフェイク検出の手法は、主に音声と視覚の特徴の同期を評価する。
モデルの識別能力を高めるため,統計的特徴損失を提案する。
DFDCおよびFakeAVCelebデータセットの実験により,提案手法の妥当性が示された。
論文 参考訳(メタデータ) (2024-07-16T12:15:41Z) - The Codecfake Dataset and Countermeasures for the Universally Detection of Deepfake Audio [42.84634652376024]
ALMベースのディープフェイクオーディオは、広範に広範に、高い騙しと、多目的性を示す。
本研究では,ALMに基づくディープフェイク音声を効果的に検出するために,ALMに基づく音声生成手法のメカニズムに着目した。
ドメインバランスと一般化されたミニマを学習するための CSAM 戦略を提案する。
論文 参考訳(メタデータ) (2024-05-08T08:28:40Z) - Retrieval-Augmented Audio Deepfake Detection [27.13059118273849]
そこで本研究では,類似のサンプルを用いて検体を増強する検索拡張検出フレームワークを提案する。
提案したRADフレームワークのベースライン法よりも優れた性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-22T05:46:40Z) - Combating Label Noise With A General Surrogate Model For Sample Selection [77.45468386115306]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - DiffSED: Sound Event Detection with Denoising Diffusion [70.18051526555512]
生成学習の観点からSED問題を再構築する。
具体的には,騒音拡散過程において,雑音のある提案から音の時間境界を生成することを目的としている。
トレーニング中は,ノイズの多い遅延クエリを基本バージョンに変換することで,ノイズ発生過程の逆転を学習する。
論文 参考訳(メタデータ) (2023-08-14T17:29:41Z) - Do You Remember? Overcoming Catastrophic Forgetting for Fake Audio
Detection [54.20974251478516]
本稿では,破滅的な忘れを克服するために,偽音声検出のための連続学習アルゴリズムを提案する。
検出ネットワークを微調整する場合,本手法では,真の発話と偽発話の比率に応じて,重み付けの方向を適応的に計算する。
本手法は,音声の感情認識などの関連分野に容易に一般化できる。
論文 参考訳(メタデータ) (2023-08-07T05:05:49Z) - Continual Learning for Fake Audio Detection [62.54860236190694]
本論文では,連続学習に基づく手法である忘れずに偽物を検出することで,モデルに新たなスプーフィング攻撃をインクリメンタルに学習させる手法を提案する。
ASVspoof 2019データセットで実験が行われる。
論文 参考訳(メタデータ) (2021-04-15T07:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。