論文の概要: Beyond Silence: Bias Analysis through Loss and Asymmetric Approach in Audio Anti-Spoofing
- arxiv url: http://arxiv.org/abs/2406.17246v1
- Date: Tue, 25 Jun 2024 03:24:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 15:51:17.706984
- Title: Beyond Silence: Bias Analysis through Loss and Asymmetric Approach in Audio Anti-Spoofing
- Title(参考訳): サイレンスを超えて: ロスによるバイアス分析と非対称アプローチ
- Authors: Hye-jin Shim, Md Sahidullah, Jee-weon Jung, Shinji Watanabe, Tomi Kinnunen,
- Abstract要約: アンチスプーフィング検出研究の最近のトレンドは、目に見えない攻撃をまたいで一般化するモデルの能力を改善することを目指している。
近年の研究では、沈黙の分布は2つのクラスによって異なることが指摘されており、これはショートカットとして機能する。
損失分析と非対称手法を用いて、従来の攻撃に焦点を当てた結果指向の評価から遠ざかる。
- 参考スコア(独自算出の注目度): 53.325039475118814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current trends in audio anti-spoofing detection research strive to improve models' ability to generalize across unseen attacks by learning to identify a variety of spoofing artifacts. This emphasis has primarily focused on the spoof class. Recently, several studies have noted that the distribution of silence differs between the two classes, which can serve as a shortcut. In this paper, we extend class-wise interpretations beyond silence. We employ loss analysis and asymmetric methodologies to move away from traditional attack-focused and result-oriented evaluations towards a deeper examination of model behaviors. Our investigations highlight the significant differences in training dynamics between the two classes, emphasizing the need for future research to focus on robust modeling of the bonafide class.
- Abstract(参考訳): 音声の反偽造検出研究の現在の傾向は、様々な偽造品を識別することを学ぶことによって、目に見えない攻撃を一般化するモデルの能力を改善することを目指している。
この強調は、主にスプーフクラスに焦点を当てている。
近年、いくつかの研究で、沈黙の分布は2つのクラスによって異なることが指摘されており、これはショートカットとして機能する。
本稿では,沈黙を超えてクラスワイズ解釈を拡張する。
我々は、損失分析と非対称手法を用いて、従来の攻撃に焦点を当てた結果指向の評価から、モデル行動のより深い検証へと移行する。
本研究は,2つのクラス間のトレーニングダイナミクスの有意な差異を強調し,ボナフィドクラスの堅牢なモデリングに焦点を合わせるための今後の研究の必要性を強調した。
関連論文リスト
- Examining Changes in Internal Representations of Continual Learning Models Through Tensor Decomposition [5.01338577379149]
連続学習(CL)は、逐次学習にまたがる過去の知識の統合を目的としたいくつかの手法の開発を加速させた。
CLモデルのための表現に基づく新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-06T07:52:44Z) - Singular Regularization with Information Bottleneck Improves Model's
Adversarial Robustness [30.361227245739745]
敵対的な例は、ディープラーニングモデルに対する最も深刻な脅威の1つです。
本研究では,非構造雑音として,明確なパターンを持たない逆情報について検討する。
本稿では,敵対情報を正規化し,情報ボトルネック理論を組み合わせるための新しいモジュールを提案する。
論文 参考訳(メタデータ) (2023-12-04T09:07:30Z) - Characterizing the temporal dynamics of universal speech representations
for generalizable deepfake detection [14.449940985934388]
既存のディープフェイク音声検出システムは、目に見えない攻撃に対する一般化性に欠ける。
近年,この問題に対処するための普遍的な音声表現の活用が検討されている。
これらの表現の長期的時間的ダイナミクスを特徴付けることは、一般化可能性に不可欠である。
論文 参考訳(メタデータ) (2023-09-15T01:37:45Z) - Comparative Evaluation of Recent Universal Adversarial Perturbations in
Image Classification [27.367498200911285]
敵のサンプルに対する畳み込みニューラルネットワーク(CNN)の脆弱性は最近、機械学習コミュニティで大きな注目を集めている。
近年の研究では、様々なCNNモデルにまたがる画像に依存しない、高度に伝達可能な普遍的対向摂動(UAP)の存在が明らかにされている。
論文 参考訳(メタデータ) (2023-06-20T03:29:05Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - A Deep Marginal-Contrastive Defense against Adversarial Attacks on 1D
Models [3.9962751777898955]
ディープラーニングアルゴリズムは最近、脆弱性のために攻撃者がターゲットとしている。
非連続的深層モデルは、いまだに敵対的な攻撃に対して頑健ではない。
本稿では,特徴を特定のマージン下に置くことによって予測を容易にする新しい目的/損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-08T20:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。