論文の概要: MAIA: An Inpainting-Based Approach for Music Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2509.04980v1
- Date: Fri, 05 Sep 2025 10:05:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.560788
- Title: MAIA: An Inpainting-Based Approach for Music Adversarial Attacks
- Title(参考訳): MAIA: 音楽の敵対的攻撃に対するペイントに基づくアプローチ
- Authors: Yuxuan Liu, Peihong Zhang, Rui Sang, Zhixin Li, Shengchen Li,
- Abstract要約: 音楽の敵対的攻撃は音楽情報検索の分野で大きな関心を集めている。
我々は、ホワイトボックスとブラックボックスの両方の攻撃シナリオをサポートする新しい攻撃フレームワーク、MAIA(Music Adversarial Inpainting Attack)を提示する。
- 参考スコア(独自算出の注目度): 12.412391002036125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Music adversarial attacks have garnered significant interest in the field of Music Information Retrieval (MIR). In this paper, we present Music Adversarial Inpainting Attack (MAIA), a novel adversarial attack framework that supports both white-box and black-box attack scenarios. MAIA begins with an importance analysis to identify critical audio segments, which are then targeted for modification. Utilizing generative inpainting models, these segments are reconstructed with guidance from the output of the attacked model, ensuring subtle and effective adversarial perturbations. We evaluate MAIA on multiple MIR tasks, demonstrating high attack success rates in both white-box and black-box settings while maintaining minimal perceptual distortion. Additionally, subjective listening tests confirm the high audio fidelity of the adversarial samples. Our findings highlight vulnerabilities in current MIR systems and emphasize the need for more robust and secure models.
- Abstract(参考訳): 音楽の敵対的攻撃は音楽情報検索(MIR)の分野で大きな関心を集めている。
本稿では,白箱攻撃と黒箱攻撃の両方をサポートする新たな攻撃フレームワークであるMAIA(Music Adversarial Inpainting Attack)を提案する。
MAIAは、重要音声セグメントを識別するために重要分析から始まり、修正の対象となる。
生成的塗装モデルを用いて、これらのセグメントを攻撃モデルの出力から誘導して再構成し、微妙で効果的な対向的摂動を確実にする。
我々は複数のMIRタスクにおいてMAIAを評価し、最小限の知覚歪みを維持しながら、ホワイトボックスとブラックボックスの両方で高い攻撃成功率を示す。
さらに, 主観的聴力テストにより, 対側サンプルの高聴力性が確認された。
我々の発見は、現在のMIRシステムの脆弱性を強調し、より堅牢でセキュアなモデルの必要性を強調している。
関連論文リスト
- Mind the Gap: Detecting Black-box Adversarial Attacks in the Making through Query Update Analysis [3.795071937009966]
アドリアックは機械学習(ML)モデルの整合性を損なう可能性がある。
本稿では,逆ノイズインスタンスが生成されているかどうかを検出するフレームワークを提案する。
適応攻撃を含む8つの最先端攻撃に対するアプローチを評価する。
論文 参考訳(メタデータ) (2025-03-04T20:25:12Z) - BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - Attack-SAM: Towards Attacking Segment Anything Model With Adversarial
Examples [68.5719552703438]
Segment Anything Model (SAM) は、様々なダウンストリームタスクにおける印象的なパフォーマンスのために、最近大きな注目を集めている。
深い視覚モデルは敵の例に弱いと広く認識されており、それはモデルを騙して知覚不能な摂動で間違った予測をする。
この研究は、SAMの攻撃方法に関する総合的な調査を敵対的な例で実施した最初のものである。
論文 参考訳(メタデータ) (2023-05-01T15:08:17Z) - Meta Gradient Adversarial Attack [64.5070788261061]
本稿では,MGAA(Metaversa Gradient Adrial Attack)と呼ばれる新しいアーキテクチャを提案する。
具体的には、モデル動物園から複数のモデルをランダムにサンプリングし、異なるタスクを構成するとともに、各タスクにおけるホワイトボックス攻撃とブラックボックス攻撃を反復的にシミュレートする。
ブラックボックス攻撃における勾配方向とブラックボックス攻撃の差を狭めることにより、ブラックボックス設定における逆例の転送性を向上させることができる。
論文 参考訳(メタデータ) (2021-08-09T17:44:19Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。