論文の概要: Optimism in the Face of Adversity: Understanding and Improving Deep
Learning through Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2010.09624v2
- Date: Thu, 28 Jan 2021 17:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 20:20:56.637991
- Title: Optimism in the Face of Adversity: Understanding and Improving Deep
Learning through Adversarial Robustness
- Title(参考訳): 逆境に面した最適性:逆境ロバスト性による深層学習の理解と改善
- Authors: Guillermo Ortiz-Jimenez, Apostolos Modas, Seyed-Mohsen
Moosavi-Dezfooli, Pascal Frossard
- Abstract要約: 深層学習における対角的強靭性の分野を詳細に検討する。
直感的な対向例と深層ニューラルネットワークの幾何学的関係を強調した。
セキュリティを超えた敵の堅牢性の主な応用について概説する。
- 参考スコア(独自算出の注目度): 63.627760598441796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driven by massive amounts of data and important advances in computational
resources, new deep learning systems have achieved outstanding results in a
large spectrum of applications. Nevertheless, our current theoretical
understanding on the mathematical foundations of deep learning lags far behind
its empirical success. Towards solving the vulnerability of neural networks,
however, the field of adversarial robustness has recently become one of the
main sources of explanations of our deep models. In this article, we provide an
in-depth review of the field of adversarial robustness in deep learning, and
give a self-contained introduction to its main notions. But, in contrast to the
mainstream pessimistic perspective of adversarial robustness, we focus on the
main positive aspects that it entails. We highlight the intuitive connection
between adversarial examples and the geometry of deep neural networks, and
eventually explore how the geometric study of adversarial examples can serve as
a powerful tool to understand deep learning. Furthermore, we demonstrate the
broad applicability of adversarial robustness, providing an overview of the
main emerging applications of adversarial robustness beyond security. The goal
of this article is to provide readers with a set of new perspectives to
understand deep learning, and to supply them with intuitive tools and insights
on how to use adversarial robustness to improve it.
- Abstract(参考訳): 大量のデータと計算資源の重要な進歩によって駆動される新しいディープラーニングシステムは、幅広いアプリケーションにおいて優れた成果を上げている。
それでも、ディープラーニングの数学的基礎に関する現在の理論的理解は、その経験的成功よりもはるかに遅れている。
しかし、ニューラルネットワークの脆弱性を解決するために、近ごろ、敵対的堅牢性の分野が、私たちの深層モデルの主要な説明源となっている。
本稿では,深層学習における敵対的堅牢性の分野を詳細に検討し,その主な概念を自己完結的に紹介する。
しかし、敵意の強固さの主流の悲観主義的な見方とは対照的に、私たちはそれが伴う主なポジティブな側面に焦点を当てています。
我々は,敵の例とディープニューラルネットワークの幾何との関係を直感的に強調し,最終的には,敵の例の幾何学的研究が,ディープラーニングを理解するための強力なツールとしてどのように役立つかを考察する。
さらに,敵の強固性に対する幅広い適用可能性を示し,セキュリティを超えた敵の強固性の主な応用について概説する。
この記事では、ディープラーニングを理解するための新しい視点を読者に提供し、直感的なツールと、それを改善するための敵の堅牢性の使用方法に関する洞察を提供する。
関連論文リスト
- A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Rethinking Robust Contrastive Learning from the Adversarial Perspective [2.3333090554192615]
標準学習ネットワークでは,敵とクリーンな表現の相違が顕著である。
敵の訓練は、これらの格差を緩和し、普遍的な集合に対する表現の収束を促進する。
論文 参考訳(メタデータ) (2023-02-05T22:43:50Z) - Deep Causal Learning: Representation, Discovery and Inference [2.696435860368848]
因果学習は、現象の基盤となり、世界が進化するメカニズムを規定する本質的な関係を明らかにする。
従来の因果学習手法は、高次元変数、非構造変数、最適化問題、未観測の共同設立者、選択バイアス、推定不正確さなど、多くの課題や制限に直面している。
ディープ・因果学習はディープ・ニューラルネットワークを活用し、これらの課題に対処するための革新的な洞察と解決策を提供する。
論文 参考訳(メタデータ) (2022-11-07T09:00:33Z) - Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - A Survey of Robust Adversarial Training in Pattern Recognition:
Fundamental, Theory, and Methodologies [26.544748192629367]
近年の研究では、ニューラルネットワークは、敵対的な例と呼ばれる、知覚不能に摂動する入力サンプルによって容易に騙されることが示されている。
このようなセキュリティの脆弱性は、ニューラルネットワークの膨大な応用により、現実世界の脅威がもたらされる可能性があるため、近年、大きな研究結果をもたらしている。
特にパターン認識における敵の例に対する頑健性の問題に対処するために、頑健な敵の訓練が主流となっている。
論文 参考訳(メタデータ) (2022-03-26T11:00:25Z) - Adversarial Robustness of Deep Learning: Theory, Algorithms, and
Applications [27.033174829788404]
本チュートリアルは,ディープラーニングの敵対的堅牢性の基礎を紹介することを目的としている。
我々は、ディープニューラルネットワーク(DNN)の敵攻撃と堅牢性検証における最先端技術を強調します。
深層学習モデルの堅牢性を改善するための効果的な対策も導入する。
論文 参考訳(メタデータ) (2021-08-24T00:08:33Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Recent Advances in Understanding Adversarial Robustness of Deep Neural
Networks [15.217367754000913]
敵の例に抵抗する高い堅牢性を持つモデルを得ることがますます重要である。
我々は、敵の攻撃と堅牢性について、予備的な定義を与える。
我々は、頻繁に使用されるベンチマークについて研究し、理論的に証明された敵の堅牢性の境界について言及する。
論文 参考訳(メタデータ) (2020-11-03T07:42:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。