論文の概要: Audio-Visual Event Recognition through the lens of Adversary
- arxiv url: http://arxiv.org/abs/2011.07430v1
- Date: Sun, 15 Nov 2020 01:36:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 07:14:19.302186
- Title: Audio-Visual Event Recognition through the lens of Adversary
- Title(参考訳): Adversary レンズによる音声・視覚イベント認識
- Authors: Juncheng B Li, Kaixin Ma, Shuhui Qu, Po-Yao Huang, Florian Metze
- Abstract要約: 本研究は, 対向雑音のレンズによるマルチモーダル学習に関連するいくつかの重要な課題について検討することを目的とする。
我々は,Google AudioSetでトレーニングされた最先端のニューラルモデルを攻撃するために,敵対的な例を構築した。
- 参考スコア(独自算出の注目度): 38.497204362659296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As audio/visual classification models are widely deployed for sensitive tasks
like content filtering at scale, it is critical to understand their robustness
along with improving the accuracy. This work aims to study several key
questions related to multimodal learning through the lens of adversarial
noises: 1) The trade-off between early/middle/late fusion affecting its
robustness and accuracy 2) How do different frequency/time domain features
contribute to the robustness? 3) How do different neural modules contribute to
the adversarial noise? In our experiment, we construct adversarial examples to
attack state-of-the-art neural models trained on Google AudioSet. We compare
how much attack potency in terms of adversarial perturbation of size $\epsilon$
using different $L_p$ norms we would need to "deactivate" the victim model.
Using adversarial noise to ablate multimodal models, we are able to provide
insights into what is the best potential fusion strategy to balance the model
parameters/accuracy and robustness trade-off and distinguish the robust
features versus the non-robust features that various neural networks model tend
to learn.
- Abstract(参考訳): 音声・視覚分類モデルは,大規模コンテンツフィルタリングなどのセンシティブなタスクに広く展開されているため,その頑健さと精度の向上が重要である。
本研究は, 対向雑音のレンズによるマルチモーダル学習に関するいくつかの重要な課題を研究することを目的とする。
1)初期/中期/後期核融合の強固性と正確性に及ぼすトレードオフ
2) 周波数/時間特性の違いはロバスト性にどのように寄与するか?
3) 異なる神経モジュールが対向性雑音にどのように寄与するか?
実験では,Google AudioSetでトレーニングした最先端のニューラルモデルを攻撃するために,逆例を構築した。
我々は、異なる$L_p$ノルムを使用して、サイズ$\epsilon$の対向的摂動の観点から、どの程度のアタック能を比較します。
敵のノイズを使ってマルチモーダルモデルを省略することで、モデルパラメータ/精度とロバストネスのトレードオフをバランスさせ、ロバストな特徴と、さまざまなニューラルネットワークモデルが学習する非ロバスト特徴を区別するための、最良の核融合戦略について洞察することができる。
関連論文リスト
- Adversarial Attacks and Dimensionality in Text Classifiers [3.4179091429029382]
機械学習アルゴリズムに対する敵対的な攻撃は、多くの現実世界のユースケースにおいて、AIの採用を妨げている。
本研究では,自然言語処理分野,特にテキスト分類タスクにおける逆例について検討する。
論文 参考訳(メタデータ) (2024-04-03T11:49:43Z) - Improving the Robustness of Summarization Systems with Dual Augmentation [68.53139002203118]
頑健な要約システムは、入力中の特定の単語の選択やノイズに関わらず、文書のギストをキャプチャできるべきである。
まず,単語レベルの同義語置換や雑音を含む摂動に対する要約モデルの頑健性について検討する。
SummAttackerを提案する。これは言語モデルに基づく対数サンプルを生成するための効率的な手法である。
論文 参考訳(メタデータ) (2023-06-01T19:04:17Z) - Wavelets Beat Monkeys at Adversarial Robustness [0.8702432681310401]
物理的にインスピレーションを受けた構造が、これまで人間の大脳皮質を巧みに模倣してしか考えられていなかったロバスト性に対する新たな洞察をいかに生み出すかを示す。
我々の研究は、物理的にインスピレーションを受けた構造が、これまで人間の大脳皮質を巧みに模倣してしか考えられていなかった堅牢性に対する新たな洞察をいかに生み出すかを示している。
論文 参考訳(メタデータ) (2023-04-19T03:41:30Z) - Exploring Adversarial Attacks on Neural Networks: An Explainable
Approach [18.063187159491182]
入力画像に逆ノイズと統計的に類似したガウスランダムノイズを混合した場合のVGG-16モデルの応答特性を解析する。
私たちの研究は、より信頼性の高いディープニューラルネットワーク(DNN)モデルの開発に関する貴重な洞察を提供することができます。
論文 参考訳(メタデータ) (2023-03-08T07:59:44Z) - Multitasking Models are Robust to Structural Failure: A Neural Model for
Bilingual Cognitive Reserve [78.3500985535601]
マルチタスク学習とニューロン障害に対する堅牢性との間には,驚くべき関連性がある。
実験の結果,バイリンガル言語モデルは様々なニューロン摂動下で高い性能を維持していることがわかった。
線形表現学習を数学的に解析することにより,このロバスト性を理論的に正当化する。
論文 参考訳(メタデータ) (2022-10-20T22:23:27Z) - Analyzing Robustness of End-to-End Neural Models for Automatic Speech
Recognition [11.489161072526677]
音声認識のための事前学習ニューラルネットワークのロバスト性について検討する。
本研究では,LibriSpeechおよびTIMITデータセット上で,事前学習したニューラルネットワークwav2vec2, HuBERT, DistilHuBERTのロバスト性解析を行う。
論文 参考訳(メタデータ) (2022-08-17T20:00:54Z) - Characterizing and overcoming the greedy nature of learning in
multi-modal deep neural networks [62.48782506095565]
深層ニューラルネットワークにおける学習の欲張った性質から、モデルは一つのモダリティにのみ依存する傾向にあり、他のモダリティには不適合であることを示す。
本稿では,学習中のモーダル間の条件付き学習速度のバランスをとるアルゴリズムを提案し,グリージー学習の問題に対処できることを実証する。
論文 参考訳(メタデータ) (2022-02-10T20:11:21Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Learning to Learn from Mistakes: Robust Optimization for Adversarial
Noise [1.976652238476722]
我々はメタ最適化器を訓練し、敵対的な例を使ってモデルを堅牢に最適化することを学び、学習した知識を新しいモデルに転送することができる。
実験の結果、メタ最適化は異なるアーキテクチャやデータセット間で一貫性があることが示され、敵の脆弱性を自動的にパッチすることができることが示唆された。
論文 参考訳(メタデータ) (2020-08-12T11:44:01Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。