論文の概要: Multitask Learning Strengthens Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2007.07236v2
- Date: Fri, 11 Sep 2020 02:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 14:35:10.680506
- Title: Multitask Learning Strengthens Adversarial Robustness
- Title(参考訳): マルチタスク学習による対人ロバストネスの強化
- Authors: Chengzhi Mao, Amogh Gupta, Vikram Nitin, Baishakhi Ray, Shuran Song,
Junfeng Yang, and Carl Vondrick
- Abstract要約: 対象タスクの数が増加するにつれて,モデルの対向的ロバスト性が向上することを示す。
我々の結果は、ディープ・ネットワークは、タスクが少なすぎるため、脆弱性があることを示唆している。
- 参考スコア(独自算出の注目度): 44.27223912197483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep networks achieve strong accuracy on a range of computer vision
benchmarks, they remain vulnerable to adversarial attacks, where imperceptible
input perturbations fool the network. We present both theoretical and empirical
analyses that connect the adversarial robustness of a model to the number of
tasks that it is trained on. Experiments on two datasets show that attack
difficulty increases as the number of target tasks increase. Moreover, our
results suggest that when models are trained on multiple tasks at once, they
become more robust to adversarial attacks on individual tasks. While
adversarial defense remains an open challenge, our results suggest that deep
networks are vulnerable partly because they are trained on too few tasks.
- Abstract(参考訳): ディープネットワークはコンピュータビジョンのベンチマークで高い精度を達成するが、敵の攻撃に弱いままであり、知覚できない入力摂動がネットワークを騙す。
本稿では,モデルの対角的ロバスト性とトレーニング対象のタスク数とを結合する理論的および経験的解析について述べる。
2つのデータセットでの実験では、ターゲットタスクの数が増えると攻撃の困難さが増す。
さらに,モデルが複数のタスクで一度にトレーニングされると,個々のタスクに対する攻撃に対してより堅牢になることが示唆された。
敵の防御はいまだに未解決の課題だが、我々の結果はディープネットワークが脆弱であることを示唆している。
関連論文リスト
- Persistent Backdoor Attacks in Continual Learning [5.371962853011215]
最小の敵の影響を生かしたBlind Task Backdoor と Latent Task Backdoor-each という2つの永続的バックドア攻撃を導入する。
以上の結果から,両攻撃は連続学習アルゴリズム間で連続的に高い成功率を達成し,最先端の防御を効果的に回避できることが示唆された。
論文 参考訳(メタデータ) (2024-09-20T19:28:48Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Adversarial Robustness in Multi-Task Learning: Promises and Illusions [21.83146764014545]
マルチタスク深層学習ネットワークの堅牢性に影響を与える設計選択について検討する。
損失関数に組み込むタスクの選択は、より堅牢なモデルを生み出すために活用できる重要な要素であることを示す。
論文 参考訳(メタデータ) (2021-10-26T11:29:03Z) - Adversarial Attacks on Multi-task Visual Perception for Autonomous
Driving [0.5735035463793008]
対角攻撃は、距離推定、セマンティックセグメンテーション、動き検出、物体検出などにわたる多様なマルチタスク視覚深層ネットワークに適用される。
実験では、標的および未標的のケースに対する白と黒の両方のボックス攻撃を検討し、タスクを攻撃し、他のすべてのケースに対する効果を検査する。
本稿では,実験結果の比較と議論を行い,洞察と今後の研究を提案する。
論文 参考訳(メタデータ) (2021-07-15T16:53:48Z) - Demotivate adversarial defense in remote sensing [0.0]
本研究は,この目的に対する対人防御として,対人訓練と対人正規化について検討する。
対角的堅牢性は地理的および過度に適合するロバスト性とは無関係と思われる公共のリモートセンシングデータセットについていくつかの実験を行った。
論文 参考訳(メタデータ) (2021-05-28T15:04:37Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - HYDRA: Pruning Adversarially Robust Neural Networks [58.061681100058316]
ディープラーニングは、敵対的攻撃に対する堅牢性の欠如と、大規模なニューラルネットワークサイズという、2つの大きな課題に直面している。
そこで本稿では,頑健なトレーニング目標を意識したプルーニング手法を提案し,トレーニング目標にプルーンへの接続を探索させる。
HYDRAと題する我々の手法は,最先端のベニグニグニグニグニグニとロバストな精度で圧縮されたネットワークを同時に実現できることを実証する。
論文 参考訳(メタデータ) (2020-02-24T19:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。