論文の概要: Adversarial Robustness in Multi-Task Learning: Promises and Illusions
- arxiv url: http://arxiv.org/abs/2110.15053v1
- Date: Tue, 26 Oct 2021 11:29:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 13:42:10.607765
- Title: Adversarial Robustness in Multi-Task Learning: Promises and Illusions
- Title(参考訳): マルチタスク学習における敵対的ロバスト性:約束と錯覚
- Authors: Salah Ghamizi, Maxime Cordy, Mike Papadakis and Yves Le Traon
- Abstract要約: マルチタスク深層学習ネットワークの堅牢性に影響を与える設計選択について検討する。
損失関数に組み込むタスクの選択は、より堅牢なモデルを生み出すために活用できる重要な要素であることを示す。
- 参考スコア(独自算出の注目度): 21.83146764014545
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vulnerability to adversarial attacks is a well-known weakness of Deep Neural
networks. While most of the studies focus on single-task neural networks with
computer vision datasets, very little research has considered complex
multi-task models that are common in real applications. In this paper, we
evaluate the design choices that impact the robustness of multi-task deep
learning networks. We provide evidence that blindly adding auxiliary tasks, or
weighing the tasks provides a false sense of robustness. Thereby, we tone down
the claim made by previous research and study the different factors which may
affect robustness. In particular, we show that the choice of the task to
incorporate in the loss function are important factors that can be leveraged to
yield more robust models.
- Abstract(参考訳): 敵の攻撃に対する脆弱性は、ディープニューラルネットワークのよく知られた弱点である。
研究の大部分は、コンピュータビジョンデータセットを備えたシングルタスクニューラルネットワークに焦点を当てているが、実際のアプリケーションで一般的な複雑なマルチタスクモデルを考える研究はほとんどない。
本稿では,マルチタスク深層学習ネットワークの堅牢性に影響を与える設計選択について検討する。
補助的なタスクを盲目的に追加したり、タスクを重み付けすることで、堅牢性の誤った感覚が得られるという証拠を提供する。
そこで,これまでの研究で得られた主張を整理し,ロバスト性に影響を与える要因について検討する。
特に、損失関数に組み込むタスクの選択は、より堅牢なモデルを生み出すために活用できる重要な要素であることを示す。
関連論文リスト
- A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Synergistic information supports modality integration and flexible
learning in neural networks solving multiple tasks [107.8565143456161]
本稿では,様々な認知タスクを行う単純な人工ニューラルネットワークが採用する情報処理戦略について検討する。
結果は、ニューラルネットワークが複数の多様なタスクを学習するにつれて、シナジーが増加することを示している。
トレーニング中に無作為にニューロンを停止させると、ネットワークの冗長性が増加し、ロバスト性の増加に対応する。
論文 参考訳(メタデータ) (2022-10-06T15:36:27Z) - What Do Adversarially trained Neural Networks Focus: A Fourier
Domain-based Study [8.912245110734334]
この研究は、敵対的に訓練されたモデルがどのような情報に焦点を当てるかを研究する。
データ拡張とより強力なネットワークアーキテクチャによるモデルロバスト性を改善するための2つの一般的な方法を検討する。
論文 参考訳(メタデータ) (2022-03-16T16:37:17Z) - Optimism in the Face of Adversity: Understanding and Improving Deep
Learning through Adversarial Robustness [63.627760598441796]
深層学習における対角的強靭性の分野を詳細に検討する。
直感的な対向例と深層ニューラルネットワークの幾何学的関係を強調した。
セキュリティを超えた敵の堅牢性の主な応用について概説する。
論文 参考訳(メタデータ) (2020-10-19T16:03:46Z) - Adversarial Examples on Object Recognition: A Comprehensive Survey [1.976652238476722]
深層ニューラルネットワークは、機械学習研究の最前線にある。
敵の例は、ネットワークの分散ドリフトに対する感度をテストするために意図的に設計されています。
ニューラルネットワークの安全性,安全性,堅牢性に対する敵の例の影響について論じる。
論文 参考訳(メタデータ) (2020-08-07T08:51:21Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Multitask Learning Strengthens Adversarial Robustness [44.27223912197483]
対象タスクの数が増加するにつれて,モデルの対向的ロバスト性が向上することを示す。
我々の結果は、ディープ・ネットワークは、タスクが少なすぎるため、脆弱性があることを示唆している。
論文 参考訳(メタデータ) (2020-07-14T17:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。