論文の概要: Whisper Smarter, not Harder: Adversarial Attack on Partial Suppression
- arxiv url: http://arxiv.org/abs/2508.09994v2
- Date: Mon, 08 Sep 2025 03:30:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.259542
- Title: Whisper Smarter, not Harder: Adversarial Attack on Partial Suppression
- Title(参考訳): Whisper Smart, not Harder: Adversarial Attack on partial Spress
- Authors: Zheng Jie Wong, Bingquan Shen,
- Abstract要約: 自動音声認識(ASR)モデルに対する敵対攻撃の可能性を示す。
これらの攻撃のロバスト性を調査し検証し、その非受容性を高めることができるかどうかを探索する。
我々はまた、これらの攻撃に対する防御の可能性を探り、低域フィルタ防御が効果的な防御に役立つ可能性があることを示す。
- 参考スコア(独自算出の注目度): 3.2232118075036573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Currently, Automatic Speech Recognition (ASR) models are deployed in an extensive range of applications. However, recent studies have demonstrated the possibility of adversarial attack on these models which could potentially suppress or disrupt model output. We investigate and verify the robustness of these attacks and explore if it is possible to increase their imperceptibility. We additionally find that by relaxing the optimisation objective from complete suppression to partial suppression, we can further decrease the imperceptibility of the attack. We also explore possible defences against these attacks and show a low-pass filter defence could potentially serve as an effective defence.
- Abstract(参考訳): 現在、ASR(Automatic Speech Recognition)モデルは広範囲のアプリケーションにデプロイされている。
しかし、近年の研究は、モデル出力を抑制または破壊する可能性があるこれらのモデルに対する敵攻撃の可能性を示している。
これらの攻撃のロバスト性を調査し検証し、その非受容性を高めることができるかどうかを探索する。
さらに, 最適化目標を完全抑制から部分抑制に緩和することで, 攻撃の非受容性をさらに低減できることがわかった。
我々はまた、これらの攻撃に対する防御の可能性を探り、低域フィルタ防御が効果的な防御に役立つ可能性があることを示す。
関連論文リスト
- Benchmarking Misuse Mitigation Against Covert Adversaries [80.74502950627736]
既存の言語モデルの安全性評価は、オーバースト攻撃と低レベルのタスクに重点を置いている。
我々は、隠蔽攻撃と対応する防御の評価を自動化するデータ生成パイプラインである、ステートフルディフェンスのためのベンチマーク(BSD)を開発した。
評価の結果,分解攻撃は有効な誤用防止剤であり,その対策としてステートフルディフェンスを強調した。
論文 参考訳(メタデータ) (2025-06-06T17:33:33Z) - OASIS: Offsetting Active Reconstruction Attacks in Federated Learning [14.644814818768172]
Federated Learning(FL)は、ユーザプライバシ保護の可能性に関して、大きな注目を集めている。
近年の研究では、FLプロトコルがアクティブリコンストラクションアタックによって容易に損なわれることが示されている。
本稿では,画像拡張に基づく防御機構を提案し,能動的再建攻撃を効果的に防止する。
論文 参考訳(メタデータ) (2023-11-23T00:05:17Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。