論文の概要: Multitask Learning Strengthens Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2007.07236v2
- Date: Fri, 11 Sep 2020 02:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 14:35:10.680506
- Title: Multitask Learning Strengthens Adversarial Robustness
- Title(参考訳): マルチタスク学習による対人ロバストネスの強化
- Authors: Chengzhi Mao, Amogh Gupta, Vikram Nitin, Baishakhi Ray, Shuran Song,
Junfeng Yang, and Carl Vondrick
- Abstract要約: 対象タスクの数が増加するにつれて,モデルの対向的ロバスト性が向上することを示す。
我々の結果は、ディープ・ネットワークは、タスクが少なすぎるため、脆弱性があることを示唆している。
- 参考スコア(独自算出の注目度): 44.27223912197483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep networks achieve strong accuracy on a range of computer vision
benchmarks, they remain vulnerable to adversarial attacks, where imperceptible
input perturbations fool the network. We present both theoretical and empirical
analyses that connect the adversarial robustness of a model to the number of
tasks that it is trained on. Experiments on two datasets show that attack
difficulty increases as the number of target tasks increase. Moreover, our
results suggest that when models are trained on multiple tasks at once, they
become more robust to adversarial attacks on individual tasks. While
adversarial defense remains an open challenge, our results suggest that deep
networks are vulnerable partly because they are trained on too few tasks.
- Abstract(参考訳): ディープネットワークはコンピュータビジョンのベンチマークで高い精度を達成するが、敵の攻撃に弱いままであり、知覚できない入力摂動がネットワークを騙す。
本稿では,モデルの対角的ロバスト性とトレーニング対象のタスク数とを結合する理論的および経験的解析について述べる。
2つのデータセットでの実験では、ターゲットタスクの数が増えると攻撃の困難さが増す。
さらに,モデルが複数のタスクで一度にトレーニングされると,個々のタスクに対する攻撃に対してより堅牢になることが示唆された。
敵の防御はいまだに未解決の課題だが、我々の結果はディープネットワークが脆弱であることを示唆している。
関連論文リスト
- On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - A reading survey on adversarial machine learning: Adversarial attacks
and their understanding [6.1678491628787455]
Adversarial Machine Learningは、ニューラルネットワークがほぼオリジナルの入力を誤って分類する原因となる脆弱性を悪用し、理解する。
敵攻撃と呼ばれるアルゴリズムのクラスが提案され、ニューラルネットワークが異なるドメインの様々なタスクを誤って分類する。
本稿は、既存の敵攻撃とその理解について、異なる視点で調査する。
論文 参考訳(メタデータ) (2023-08-07T07:37:26Z) - Adversarial Robustness in Multi-Task Learning: Promises and Illusions [21.83146764014545]
マルチタスク深層学習ネットワークの堅牢性に影響を与える設計選択について検討する。
損失関数に組み込むタスクの選択は、より堅牢なモデルを生み出すために活用できる重要な要素であることを示す。
論文 参考訳(メタデータ) (2021-10-26T11:29:03Z) - Adversarial Attacks on Multi-task Visual Perception for Autonomous
Driving [0.5735035463793008]
対角攻撃は、距離推定、セマンティックセグメンテーション、動き検出、物体検出などにわたる多様なマルチタスク視覚深層ネットワークに適用される。
実験では、標的および未標的のケースに対する白と黒の両方のボックス攻撃を検討し、タスクを攻撃し、他のすべてのケースに対する効果を検査する。
本稿では,実験結果の比較と議論を行い,洞察と今後の研究を提案する。
論文 参考訳(メタデータ) (2021-07-15T16:53:48Z) - Demotivate adversarial defense in remote sensing [0.0]
本研究は,この目的に対する対人防御として,対人訓練と対人正規化について検討する。
対角的堅牢性は地理的および過度に適合するロバスト性とは無関係と思われる公共のリモートセンシングデータセットについていくつかの実験を行った。
論文 参考訳(メタデータ) (2021-05-28T15:04:37Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - HYDRA: Pruning Adversarially Robust Neural Networks [58.061681100058316]
ディープラーニングは、敵対的攻撃に対する堅牢性の欠如と、大規模なニューラルネットワークサイズという、2つの大きな課題に直面している。
そこで本稿では,頑健なトレーニング目標を意識したプルーニング手法を提案し,トレーニング目標にプルーンへの接続を探索させる。
HYDRAと題する我々の手法は,最先端のベニグニグニグニグニグニとロバストな精度で圧縮されたネットワークを同時に実現できることを実証する。
論文 参考訳(メタデータ) (2020-02-24T19:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。