論文の概要: Adversarial attacks on audio source separation
- arxiv url: http://arxiv.org/abs/2010.03164v3
- Date: Mon, 15 Feb 2021 04:12:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 00:32:23.481221
- Title: Adversarial attacks on audio source separation
- Title(参考訳): 音源分離に対する敵対的攻撃
- Authors: Naoya Takahashi, Shota Inoue, Yuki Mitsufuji
- Abstract要約: 音源分離問題に対する様々な逆攻撃手法を再構成する。
そこで本研究では,非知覚的対向雑音を得るための簡易かつ効果的な正則化法を提案する。
また,ブラックボックス攻撃に対するソース分離モデルの堅牢性を示す。
- 参考スコア(独自算出の注目度): 26.717340178640498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the excellent performance of neural-network-based audio source
separation methods and their wide range of applications, their robustness
against intentional attacks has been largely neglected. In this work, we
reformulate various adversarial attack methods for the audio source separation
problem and intensively investigate them under different attack conditions and
target models. We further propose a simple yet effective regularization method
to obtain imperceptible adversarial noise while maximizing the impact on
separation quality with low computational complexity. Experimental results show
that it is possible to largely degrade the separation quality by adding
imperceptibly small noise when the noise is crafted for the target model. We
also show the robustness of source separation models against a black-box
attack. This study provides potentially useful insights for developing content
protection methods against the abuse of separated signals and improving the
separation performance and robustness.
- Abstract(参考訳): ニューラルネットを用いた音源分離法の性能は優れており,その応用範囲は広いが,意図的な攻撃に対する頑健さは無視されている。
本研究では,音声ソース分離問題に対する様々な攻撃手法を再構成し,異なる攻撃条件と対象モデル下で集中的に検討する。
さらに,計算複雑性の低い分離品質への影響を最大化しつつ,知覚不能な逆方向雑音を得るための簡易かつ効果的な正則化法を提案する。
実験結果から, 対象モデルに対して騒音が作り出された場合, 印象的な小ノイズを付加することにより, 分離品質を著しく低下させることができることがわかった。
また,ブラックボックス攻撃に対するソース分離モデルの堅牢性を示す。
本研究は,分離信号の乱用に対するコンテンツ保護手法の開発や,分離性能とロバスト性の向上に有用である。
関連論文リスト
- Robust VAEs via Generating Process of Noise Augmented Data [9.366139389037489]
本稿では,原データと雑音増大データ間の潜時空間のばらつきを規則化し,ロバスト性を高める新しい枠組みを提案する。
実験により,ロバスト拡張変分オートエンコーダ(RAVEN)と呼ばれるこの手法は,対向入力に対して優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2024-07-26T09:55:34Z) - Improving the Robustness of Summarization Systems with Dual Augmentation [68.53139002203118]
頑健な要約システムは、入力中の特定の単語の選択やノイズに関わらず、文書のギストをキャプチャできるべきである。
まず,単語レベルの同義語置換や雑音を含む摂動に対する要約モデルの頑健性について検討する。
SummAttackerを提案する。これは言語モデルに基づく対数サンプルを生成するための効率的な手法である。
論文 参考訳(メタデータ) (2023-06-01T19:04:17Z) - Robust Deep Learning Models Against Semantic-Preserving Adversarial
Attack [3.7264705684737893]
ディープラーニングモデルは、小さな$l_p$-normの逆の摂動と、属性の観点からの自然な摂動によって騙される。
本稿では,SPA攻撃という新たな攻撃機構を提案する。
論文 参考訳(メタデータ) (2023-04-08T08:28:36Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - Towards Robust Speech-to-Text Adversarial Attack [78.5097679815944]
本稿では,DeepSpeech,Kaldi,Lingvoなど,最先端の音声テキストシステムに対する新たな逆アルゴリズムを提案する。
本手法は, 逆最適化定式化の従来の歪み条件の拡張を開発することに基づいている。
元のサンプルと反対のサンプルの分布の差を測定するこの測定値の最小化は、正統な音声記録のサブスペースに非常に近い作成信号に寄与する。
論文 参考訳(メタデータ) (2021-03-15T01:51:41Z) - On the Limitations of Denoising Strategies as Adversarial Defenses [29.73831728610021]
機械学習モデルに対する敵対的な攻撃は 懸念を高めています
本稿では,データのデノイジングと再構成を通じて,対称変換という形での防御戦略を分析する。
実験の結果,適応的な圧縮戦略により,モデルが逆摂動を効果的に抑制できることがわかった。
論文 参考訳(メタデータ) (2020-12-17T03:54:30Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。