論文の概要: Attack Agnostic Dataset: Towards Generalization and Stabilization of
Audio DeepFake Detection
- arxiv url: http://arxiv.org/abs/2206.13979v1
- Date: Mon, 27 Jun 2022 12:30:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 14:35:29.323211
- Title: Attack Agnostic Dataset: Towards Generalization and Stabilization of
Audio DeepFake Detection
- Title(参考訳): アタック・アグノスティック・データセット:オーディオディープフェイク検出の一般化と安定化を目指して
- Authors: Piotr Kawa, Marcin Plata, Piotr Syga
- Abstract要約: 音声のディープフェイク検出法は, 優れた一般化と安定性を特徴とする。
本稿では,現状のDeepFake検出手法を徹底的に分析し,様々な音声特徴(フロントエンド)について考察する。
LFCC と mel-spectrogram のフロントエンドを用いたLCNN に基づくモデルを提案する。
- 参考スコア(独自算出の注目度): 0.4511923587827302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Audio DeepFakes allow the creation of high-quality, convincing utterances and
therefore pose a threat due to its potential applications such as impersonation
or fake news. Methods for detecting these manipulations should be characterized
by good generalization and stability leading to robustness against attacks
conducted with techniques that are not explicitly included in the training. In
this work, we introduce Attack Agnostic Dataset - a combination of two audio
DeepFakes and one anti-spoofing datasets that, thanks to the disjoint use of
attacks, can lead to better generalization of detection methods. We present a
thorough analysis of current DeepFake detection methods and consider different
audio features (front-ends). In addition, we propose a model based on LCNN with
LFCC and mel-spectrogram front-end, which not only is characterized by a good
generalization and stability results but also shows improvement over LFCC-based
mode - we decrease standard deviation on all folds and EER in two folds by up
to 5%.
- Abstract(参考訳): オーディオDeepFakesは高品質で説得力のある発話を作成できるため、偽造や偽ニュースなどの潜在的な応用のために脅威となる。
これらの操作を検出する方法は、トレーニングに明示的に含まれないテクニックで実行された攻撃に対する堅牢性をもたらす優れた一般化と安定性によって特徴付けられるべきである。
本稿では,アタック非依存データセットを紹介する。2つのオーディオディープフェイクと1つのアンチスプーフィングデータセットの組み合わせにより,アタックの非協力的利用により,検出方法をより一般化することができる。
本稿では,現在のDeepFake検出手法を徹底的に分析し,様々な音声特徴(フロントエンド)について考察する。
さらに,LCNN と LFCC と mel-spectrogram のフロントエンドを用いたモデルを提案する。これは,優れた一般化と安定性を特徴とするだけでなく,LFCC のモードよりも改善され,すべての折り畳みと EER の標準偏差を最大5%まで低減する。
関連論文リスト
- Typicalness-Aware Learning for Failure Detection [26.23185979968123]
ディープニューラルネットワーク(DNN)は、しばしば自信過剰な問題に悩まされる。
そこで本研究では,本問題に対処し,故障検出性能を向上させるために,S typicalness-Aware Learning (TAL) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T11:09:47Z) - Detecting Adversarial Data via Perturbation Forgery [28.637963515748456]
逆検出は、自然データと逆データの間の分布とノイズパターンの相違に基づいて、データフローから逆データを特定し、フィルタリングすることを目的としている。
不均衡および異方性雑音パターンを回避した生成モデルに基づく新しい攻撃
本研究では,ノイズ分布の摂動,スパースマスク生成,擬似対向データ生成を含む摂動フォージェリを提案し,未知の勾配に基づく,生成モデルに基づく,物理的対向攻撃を検出することができる対向検出器を訓練する。
論文 参考訳(メタデータ) (2024-05-25T13:34:16Z) - FLTracer: Accurate Poisoning Attack Provenance in Federated Learning [38.47921452675418]
Federated Learning(FL)は、複数のクライアントが共同で共有グローバルモデルをトレーニングできる、有望な分散学習アプローチである。
近年の研究では、FLは様々な毒殺攻撃に弱いことが示されており、グローバルモデルの性能を低下させるか、バックドアを導入することができる。
FLTracerは、様々な攻撃を正確に検出し、攻撃時間、目的、タイプ、および更新の有毒な位置を追跡できる最初のFL攻撃フレームワークである。
論文 参考訳(メタデータ) (2023-10-20T11:24:38Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Securing Distributed SGD against Gradient Leakage Threats [13.979995939926154]
本稿では, 勾配漏れ弾性分布勾配Descent (SGD) に対する総合的アプローチを提案する。
プライバシー強化型フェデレーション学習の2つの方法として, (i) ランダム選択や低ランクフィルタリングによるグラデーションプルーニング, (ii) 付加的ランダムノイズや差分プライバシーノイズによる勾配摂動について分析した。
本稿では,分散SGDをフェデレート学習において確保するための勾配リーク耐性手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T21:39:27Z) - Mixed Precision Quantization to Tackle Gradient Leakage Attacks in
Federated Learning [1.7205106391379026]
フェデレートラーニング(FL)は、明示的なデータ共有を必要とせずに、多数の参加者の間で協調的なモデル構築を可能にする。
このアプローチは、プライバシ推論攻撃を適用した際の脆弱性を示す。
特に、モデル勾配からセンシティブなデータを取得する上で高い成功率を持つ勾配リーク攻撃の場合、FLモデルは、その固有のアーキテクチャにおける通信の存在により、高いリスクを負う。
論文 参考訳(メタデータ) (2022-10-22T04:24:32Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。