論文の概要: Generalizable speech deepfake detection via meta-learned LoRA
- arxiv url: http://arxiv.org/abs/2502.10838v1
- Date: Sat, 15 Feb 2025 16:02:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:08:22.253128
- Title: Generalizable speech deepfake detection via meta-learned LoRA
- Title(参考訳): メタ学習LoRAを用いた一般化可能な音声深度検出
- Authors: Janne Laakkonen, Ivan Kukanov, Ville Hautamäki,
- Abstract要約: 一般化可能なディープフェイク検出は、ラベル(ボナフィドと偽)を固定するが分布ドリフトがディープフェイク集合に影響を与える検出問題として定式化することができる。
適切なアプローチの1つは、トレーニング時間内に利用可能なすべての異なる攻撃タイプをプールすることである。
提案手法は,LoRAアダプタと組み合わせたメタラーニングを用いて,すべての攻撃タイプに共通するトレーニングデータの構造を学習する。
- 参考スコア(独自算出の注目度): 4.661764541283173
- License:
- Abstract: Generalizable deepfake detection can be formulated as a detection problem where labels (bonafide and fake) are fixed but distributional drift affects the deepfake set. We can always train our detector with one-selected attacks and bonafide data, but an attacker can generate new attacks by just retraining his generator with a different seed. One reasonable approach is to simply pool all different attack types available in training time. Our proposed approach is to utilize meta-learning in combination with LoRA adapters to learn the structure in the training data that is common to all attack types.
- Abstract(参考訳): 一般化可能なディープフェイク検出は、ラベル(ボナフィドと偽)を固定するが分布ドリフトがディープフェイク集合に影響を与える検出問題として定式化することができる。
私たちは常に1回の攻撃とボナフィドのデータで検出器を訓練できますが、攻撃者は別のシードでジェネレータを再訓練するだけで、新たな攻撃を発生できます。
適切なアプローチの1つは、トレーニング時間内に利用可能なすべての異なる攻撃タイプをプールすることである。
提案手法は,LoRAアダプタと組み合わせたメタラーニングを用いて,すべての攻撃タイプに共通するトレーニングデータの構造を学習する。
関連論文リスト
- PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - Spoofing attack augmentation: can differently-trained attack models improve generalisation? [38.02444175596806]
確実なディープフェイク検知またはスプーフ対策は、予測不可能なスプーフ攻撃に直面して堅牢であるべきである。
本論文では,スプーフィング攻撃の有効性,およびディープラーニングに基づく効果が,訓練条件に応じて同様に変化することを示す。
RawNet2 CMモデルでは攻撃アルゴリズムへの調整のみを行うと脆弱になるが、グラフ注意ネットワークと自己教師型学習に基づくモデルは確実に堅牢である。
論文 参考訳(メタデータ) (2023-09-18T08:47:54Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Invisible Backdoor Attack with Dynamic Triggers against Person
Re-identification [71.80885227961015]
個人再識別(ReID)は、広範囲の現実世界のアプリケーションで急速に進展しているが、敵攻撃の重大なリスクも生じている。
動的トリガー・インビジブル・バックドア・アタック(DT-IBA)と呼ばれる,ReIDに対する新たなバックドア・アタックを提案する。
本研究は,提案したベンチマークデータセットに対する攻撃の有効性と盗聴性を広範囲に検証し,攻撃に対する防御手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-11-20T10:08:28Z) - Post-Training Detection of Backdoor Attacks for Two-Class and
Multi-Attack Scenarios [22.22337220509128]
バックドア攻撃(BA)は、ディープニューラルネットワーク分類器に対する新たな脅威である。
本稿では,BPリバースエンジニアリングに基づく検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T22:21:38Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Classification Auto-Encoder based Detector against Diverse Data
Poisoning Attacks [7.150136251781658]
毒殺攻撃は、敵対的な機械学習の脅威のカテゴリである。
本稿では,有毒データに対する分類オートエンコーダを用いた検出器であるCAEを提案する。
CAEの強化版(CAE+と呼ばれる)では、防御モデルをトレーニングするためにクリーンなデータセットを使わなくてもよいことを示す。
論文 参考訳(メタデータ) (2021-08-09T17:46:52Z) - Untargeted, Targeted and Universal Adversarial Attacks and Defenses on
Time Series [0.0]
我々は,UCR時系列データセットに対して,対象外,対象外,普遍的敵攻撃を行った。
これらの攻撃に対して,ディープラーニングに基づく時系列分類モデルが脆弱であることを示す。
また、トレーニングデータのごく一部しか必要としないため、普遍的敵攻撃は優れた一般化特性を有することを示す。
論文 参考訳(メタデータ) (2021-01-13T13:00:51Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z) - Adversarial Detection and Correction by Matching Prediction
Distributions [0.0]
この検出器は、MNISTとFashion-MNISTに対するCarini-WagnerやSLIDEのような強力な攻撃をほぼ完全に中和する。
本手法は,攻撃者がモデルと防御の両方について十分な知識を持つホワイトボックス攻撃の場合においても,なおも敵の例を検出することができることを示す。
論文 参考訳(メタデータ) (2020-02-21T15:45:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。