論文の概要: Adversarial Training Improves Generalization Under Distribution Shifts in Bioacoustics
- arxiv url: http://arxiv.org/abs/2507.13727v1
- Date: Fri, 18 Jul 2025 08:16:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.22027
- Title: Adversarial Training Improves Generalization Under Distribution Shifts in Bioacoustics
- Title(参考訳): 生物音響学における分布シフトによる一般化の逆行訓練による改善
- Authors: René Heinrich, Lukas Rauch, Bernhard Sick, Christoph Scholz,
- Abstract要約: この研究は、従来の畳み込みニューラルネットワーク(ConvNeXt)と本質的に解釈可能なプロトタイプベースモデル(AudioProtoPNet)の2つのモデルアーキテクチャに焦点を当てている。
この手法は鳥の音響分類ベンチマークを用いて評価する。
その結果、特にアウトプットスペース攻撃を用いた敵の訓練は、クリーンなテストデータのパフォーマンスを平均10.5%向上させることがわかった。
- 参考スコア(独自算出の注目度): 1.49199020343864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training is a promising strategy for enhancing model robustness against adversarial attacks. However, its impact on generalization under substantial data distribution shifts in audio classification remains largely unexplored. To address this gap, this work investigates how different adversarial training strategies improve generalization performance and adversarial robustness in audio classification. The study focuses on two model architectures: a conventional convolutional neural network (ConvNeXt) and an inherently interpretable prototype-based model (AudioProtoPNet). The approach is evaluated using a challenging bird sound classification benchmark. This benchmark is characterized by pronounced distribution shifts between training and test data due to varying environmental conditions and recording methods, a common real-world challenge. The investigation explores two adversarial training strategies: one based on output-space attacks that maximize the classification loss function, and another based on embedding-space attacks designed to maximize embedding dissimilarity. These attack types are also used for robustness evaluation. Additionally, for AudioProtoPNet, the study assesses the stability of its learned prototypes under targeted embedding-space attacks. Results show that adversarial training, particularly using output-space attacks, improves clean test data performance by an average of 10.5% relative and simultaneously strengthens the adversarial robustness of the models. These findings, although derived from the bird sound domain, suggest that adversarial training holds potential to enhance robustness against both strong distribution shifts and adversarial attacks in challenging audio classification settings.
- Abstract(参考訳): 敵陣訓練は、敵陣攻撃に対するモデル堅牢性を高めるための有望な戦略である。
しかし、音声分類におけるデータ分散シフトが一般化に与える影響は、まだ明らかになっていない。
このギャップに対処するために, 音声分類において, 異なる対角的トレーニング戦略が一般化性能と対角的堅牢性をどのように改善するかを検討する。
この研究は、従来の畳み込みニューラルネットワーク(ConvNeXt)と本質的に解釈可能なプロトタイプベースモデル(AudioProtoPNet)の2つのモデルアーキテクチャに焦点を当てている。
この手法は鳥の音響分類ベンチマークを用いて評価する。
このベンチマークは、様々な環境条件と記録方法により、トレーニングデータとテストデータの間に顕著な分布シフトを特徴とする。
本研究は, 分類損失関数を最大化する出力空間攻撃と, 埋め込み異性度を最大化する埋め込み空間攻撃の2つの相反する訓練戦略について検討した。
これらの攻撃タイプは堅牢性評価にも使用される。
さらに、AudioProtoPNetでは、ターゲットの埋め込みスペース攻撃下で学習したプロトタイプの安定性を評価する。
その結果、特にアウトプットスペース攻撃を用いた敵の訓練は、平均して10.5%の相対性でクリーンなテストデータ性能を改善し、同時にモデルの敵の堅牢性を強化することが示された。
これらの知見は, 鳥音領域から派生したものの, 敵対的訓練は, 強い分布シフトと敵対的攻撃の両方に対して強靭性を高める可能性があることを示唆している。
関連論文リスト
- Adversarial Training for Defense Against Label Poisoning Attacks [53.893792844055106]
ラベル中毒攻撃は機械学習モデルに重大なリスクをもたらす。
本稿では,これらの脅威に対処するために,サポートベクトルマシン(SVM)に基づく新たな対角的防御戦略を提案する。
提案手法は, 様々なモデルアーキテクチャに対応し, カーネルSVMを用いた予測勾配降下アルゴリズムを用いて, 対向学習を行う。
論文 参考訳(メタデータ) (2025-02-24T13:03:19Z) - Detecting Adversarial Data using Perturbation Forgery [28.237738842260615]
逆検出は、自然データと逆データの間の分布とノイズパターンの相違に基づいて、データフローから逆データを特定し、フィルタリングすることを目的としている。
不均衡および異方性雑音パターンを回避した生成モデルに基づく新しい攻撃
本研究では,ノイズ分布,スパースマスク生成,擬似逆数データ生成を含む摂動フォージェリを提案し,不明瞭な勾配ベース,生成型および物理的逆数攻撃を検出可能な逆数検出器を訓練する。
論文 参考訳(メタデータ) (2024-05-25T13:34:16Z) - Outlier Robust Adversarial Training [57.06824365801612]
本研究では,アウトリー・ロバスト・アドバイザリアル・トレーニング(ORAT)を紹介する。
ORATは、強靭なランクに基づく損失関数を持つ対向訓練の2レベル最適化の定式化に基づいている。
ORATの学習目的はバイナリ分類における$mathcalH$-consistencyを満たすことが示され、これは敵の0/1損失に対する適切なサロゲートとして確立されている。
論文 参考訳(メタデータ) (2023-09-10T21:36:38Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Improving Adversarial Robustness with Self-Paced Hard-Class Pair
Reweighting [5.084323778393556]
標的外攻撃による敵の訓練は 最も認知されている方法の1つです
自然に不均衡なクラス間のセマンティックな類似性により、これらのハードクラスのペアが互いに仮想的なターゲットになる。
モデル最適化における重み付きハードクラスペアの損失について提案し、ハードクラスからの識別的特徴の学習を促す。
論文 参考訳(メタデータ) (2022-10-26T22:51:36Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Self-Ensemble Adversarial Training for Improved Robustness [14.244311026737666]
敵の訓練は、あらゆる種類の防衛方法において、様々な敵の攻撃に対する最強の戦略である。
最近の研究は主に新しい損失関数や正規化器の開発に重点を置いており、重み空間の特異な最適点を見つけようとしている。
我々は,歴史モデルの重みを平均化し,頑健な分類器を生成するための,単純だが強力なemphSelf-Ensemble Adversarial Training (SEAT)法を考案した。
論文 参考訳(メタデータ) (2022-03-18T01:12:18Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - REGroup: Rank-aggregating Ensemble of Generative Classifiers for Robust
Predictions [6.0162772063289784]
敵の訓練やランダムな入力変換を採用する防衛戦略は、合理的なパフォーマンスを達成するために、モデルの再訓練や微調整を必要とするのが普通である。
中間層の神経応答を統計的に特徴付けることにより, 生成型分類器を学習し, トレーニングサンプルをクリーンにすることができる。
提案手法は, クリーントレーニングデータのサブセットと事前学習モデルを用いており, ネットワークアーキテクチャや敵攻撃生成手法に非依存である。
論文 参考訳(メタデータ) (2020-06-18T17:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。