論文の概要: Continual Learning for Fake Audio Detection
- arxiv url: http://arxiv.org/abs/2104.07286v1
- Date: Thu, 15 Apr 2021 07:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 14:45:15.018761
- Title: Continual Learning for Fake Audio Detection
- Title(参考訳): フェイクオーディオ検出のための連続学習
- Authors: Haoxin Ma, Jiangyan Yi, Jianhua Tao, Ye Bai, Zhengkun Tian, Chenglong
Wang
- Abstract要約: 本論文では,連続学習に基づく手法である忘れずに偽物を検出することで,モデルに新たなスプーフィング攻撃をインクリメンタルに学習させる手法を提案する。
ASVspoof 2019データセットで実験が行われる。
- 参考スコア(独自算出の注目度): 62.54860236190694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fake audio attack becomes a major threat to the speaker verification system.
Although current detection approaches have achieved promising results on
dataset-specific scenarios, they encounter difficulties on unseen spoofing
data. Fine-tuning and retraining from scratch have been applied to incorporate
new data. However, fine-tuning leads to performance degradation on previous
data. Retraining takes a lot of time and computation resources. Besides,
previous data are unavailable due to privacy in some situations. To solve the
above problems, this paper proposes detecting fake without forgetting, a
continual-learning-based method, to make the model learn new spoofing attacks
incrementally. A knowledge distillation loss is introduced to loss function to
preserve the memory of original model. Supposing the distribution of genuine
voice is consistent among different scenarios, an extra embedding similarity
loss is used as another constraint to further do a positive sample alignment.
Experiments are conducted on the ASVspoof2019 dataset. The results show that
our proposed method outperforms fine-tuning by the relative reduction of
average equal error rate up to 81.62%.
- Abstract(参考訳): 偽音声攻撃は話者認証システムにとって大きな脅威となる。
現在の検出手法はデータセット固有のシナリオで有望な結果を得たが、見当たらないデータでは困難に直面する。
新しいデータを取り込むために、スクラッチから微調整と再トレーニングが適用されている。
しかし、微調整は以前のデータのパフォーマンスを低下させる。
再トレーニングには多くの時間と計算リソースが必要です。
また、一部の状況ではプライバシーのため、以前のデータは利用できない。
そこで本研究では,学習を継続的に行う手法であるフェイクの検出を行なわず,新たなスプーフィング攻撃を段階的に学習させる手法を提案する。
損失関数に知識蒸留損失を導入し、元のモデルの記憶を保存する。
実声の分布は異なるシナリオで一貫性があり、さらに正のサンプルアライメントを行うための別の制約として余分な埋め込み類似性損失が用いられる。
ASVspoof2019データセットで実験が行われる。
その結果,提案手法は平均誤差率を81.62%まで下げることで微調整よりも優れていた。
関連論文リスト
- Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Do You Remember? Overcoming Catastrophic Forgetting for Fake Audio
Detection [54.20974251478516]
本稿では,破滅的な忘れを克服するために,偽音声検出のための連続学習アルゴリズムを提案する。
検出ネットワークを微調整する場合,本手法では,真の発話と偽発話の比率に応じて,重み付けの方向を適応的に計算する。
本手法は,音声の感情認識などの関連分野に容易に一般化できる。
論文 参考訳(メタデータ) (2023-08-07T05:05:49Z) - Ethicist: Targeted Training Data Extraction Through Loss Smoothed Soft
Prompting and Calibrated Confidence Estimation [56.57532238195446]
本研究では,対象とするトレーニングデータ抽出のためのEthicistという手法を提案する。
メモリ化を誘発するため、モデルを固定しながらソフトなプロンプト埋め込みをチューニングする。
我々は,最近提案された公開ベンチマークにおいて,エティシストが抽出性能を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-07-10T08:03:41Z) - On-the-fly Denoising for Data Augmentation in Natural Language
Understanding [101.46848743193358]
よりクリーンなオリジナルデータに基づいて訓練された有機教師モデルによって提供されるソフトな拡張ラベルから学習する,データ拡張のためのオンザフライデノケーション手法を提案する。
本手法は,一般的な拡張手法に適用でき,テキスト分類と質問応答の両タスクの性能を一貫して向上させることができる。
論文 参考訳(メタデータ) (2022-12-20T18:58:33Z) - Anomaly Detection with Test Time Augmentation and Consistency Evaluation [13.709281244889691]
本稿では,TTA-AD(Test Time Augmentation Anomaly Detection)と呼ばれる簡易かつ効果的な異常検出アルゴリズムを提案する。
我々は、分散データよりもトレーニングされたネットワーク上でのオリジナルバージョンと拡張バージョンについて、分散データの方が一貫性のある予測を楽しむことを観察した。
様々な高解像度画像ベンチマークデータセットの実験は、TTA-ADが同等またはより良い検出性能を達成することを示した。
論文 参考訳(メタデータ) (2022-06-06T04:27:06Z) - Device-Directed Speech Detection: Regularization via Distillation for
Weakly-Supervised Models [13.456066434598155]
我々は、特定のウェイクワードを含まないデバイスに向けられた音声を検出する問題に対処する。
具体的には、タッチベースの呼び出しによるオーディオに焦点を当てます。
論文 参考訳(メタデータ) (2022-03-30T01:27:39Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。