論文の概要: Theoretical Foundations of Adversarially Robust Learning
- arxiv url: http://arxiv.org/abs/2306.07723v1
- Date: Tue, 13 Jun 2023 12:20:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 13:51:05.893270
- Title: Theoretical Foundations of Adversarially Robust Learning
- Title(参考訳): 対人ロバスト学習の理論的基礎
- Authors: Omar Montasser
- Abstract要約: 現在の機械学習システムは、敵の例に対して脆弱であることが示されている。
この論文では、敵の例に対して、ロバストネス特性がどのような保証を期待できるかを論じる。
- 参考スコア(独自算出の注目度): 7.589246500826111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite extraordinary progress, current machine learning systems have been
shown to be brittle against adversarial examples: seemingly innocuous but
carefully crafted perturbations of test examples that cause machine learning
predictors to misclassify. Can we learn predictors robust to adversarial
examples? and how? There has been much empirical interest in this contemporary
challenge in machine learning, and in this thesis, we address it from a
theoretical perspective.
In this thesis, we explore what robustness properties can we hope to
guarantee against adversarial examples and develop an understanding of how to
algorithmically guarantee them. We illustrate the need to go beyond traditional
approaches and principles such as empirical risk minimization and uniform
convergence, and make contributions that can be categorized as follows: (1)
introducing problem formulations capturing aspects of emerging practical
challenges in robust learning, (2) designing new learning algorithms with
provable robustness guarantees, and (3) characterizing the complexity of robust
learning and fundamental limitations on the performance of any algorithm.
- Abstract(参考訳): 異常な進歩にもかかわらず、現在の機械学習システムは、悪意のある例に対して脆弱であることが示されている。
逆例に頑健な予測器を学べるか?
どうやって?
機械学習におけるこの現代的課題には、多くの経験的関心があり、この論文では、理論的観点からそれに取り組む。
本論文では,敵の例に対してどのようなロバスト性特性を保証し,アルゴリズムによる保証の方法についての理解を深めたい。
実証的リスク最小化や一様収束といった従来のアプローチや原則を越えて、(1)堅牢な学習における新たな実践的課題の側面を捉えた問題定式化の導入、(2)堅牢性を保証するための新たな学習アルゴリズムの設計、(3)堅牢な学習の複雑さとアルゴリズムの性能に関する基本的な制限を特徴付ける。
関連論文リスト
- Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Understanding Self-Predictive Learning for Reinforcement Learning [61.62067048348786]
強化学習のための自己予測学習の学習ダイナミクスについて検討する。
本稿では,2つの表現を同時に学習する新しい自己予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-06T20:43:37Z) - Statistical Foundation Behind Machine Learning and Its Impact on
Computer Vision [8.974457198386414]
本稿では、統計的学習における一様収束の原理を再考し、機械学習の基礎としてどのように機能するかを論じ、現在のディープラーニングアルゴリズムが解決している本質的な問題をよりよく理解しようと試みる。
コンピュータビジョンを機械学習の例として用いた議論は、近年の大規模データを活用して、表現学習に事前学習を行うことによる研究の傾向が、現実的に抽出可能な経験的損失と最終的に望まれるが、予測される損失との差を減らしていることを示している。
論文 参考訳(メタデータ) (2022-09-06T17:59:04Z) - A Survey of Robust Adversarial Training in Pattern Recognition:
Fundamental, Theory, and Methodologies [26.544748192629367]
近年の研究では、ニューラルネットワークは、敵対的な例と呼ばれる、知覚不能に摂動する入力サンプルによって容易に騙されることが示されている。
このようなセキュリティの脆弱性は、ニューラルネットワークの膨大な応用により、現実世界の脅威がもたらされる可能性があるため、近年、大きな研究結果をもたらしている。
特にパターン認識における敵の例に対する頑健性の問題に対処するために、頑健な敵の訓練が主流となっている。
論文 参考訳(メタデータ) (2022-03-26T11:00:25Z) - Adversarial Robustness with Semi-Infinite Constrained Learning [177.42714838799924]
入力に対する深い学習は、安全クリティカルなドメインでの使用に関して深刻な疑問を提起している。
本稿では,この問題を緩和するために,Langevin Monte Carlo のハイブリッドトレーニング手法を提案する。
当社のアプローチは、最先端のパフォーマンスと堅牢性の間のトレードオフを軽減することができることを示す。
論文 参考訳(メタデータ) (2021-10-29T13:30:42Z) - Quantifying Epistemic Uncertainty in Deep Learning [15.494774321257939]
不確かさの定量化は、機械学習の信頼性と堅牢性の中核にある。
深層学習における不確実性,特にテクテプステミック成分を識別する理論的枠組みを提供する。
本稿では,これらの不確かさを推定する2つの手法を提案し,その1つは影響関数に基づくものであり,もう1つは変数に関するものである。
論文 参考訳(メタデータ) (2021-10-23T03:21:10Z) - When and How to Fool Explainable Models (and Humans) with Adversarial
Examples [1.439518478021091]
説明可能な機械学習モデルに対する敵攻撃の可能性と限界について検討する。
まず、逆例の概念を拡張して、説明可能な機械学習シナリオに適合する。
次に、説明可能なモデルに対して、逆例を生成できるかどうかを総合的に検討する枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-05T11:20:55Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Of Moments and Matching: Trade-offs and Treatments in Imitation Learning [26.121994149869767]
我々は、モーメントマッチングのレンズを通して、過去の模倣学習アルゴリズムの大規模なファミリの統一ビューを提供する。
学習者と専門家の行動の相違を考慮することで、政策パフォーマンスの限界を導出することができる。
AdVILとAdRILという2つの新しいアルゴリズムテンプレートを、強力な保証、シンプルな実装、競争力のある実証的パフォーマンスで導出します。
論文 参考訳(メタデータ) (2021-03-04T18:57:11Z) - Probably Approximately Correct Constrained Learning [135.48447120228658]
我々は、ほぼ正しい学習フレームワーク(PAC)に基づく一般化理論を開発する。
PAC学習可能なクラスも制約のある学習者であるという意味では,学習者の導入は学習問題を難しくするものではないことを示す。
このソリューションの特性を分析し,制約付き学習が公平でロバストな分類における問題にどのように対処できるかを説明する。
論文 参考訳(メタデータ) (2020-06-09T19:59:29Z) - Provably Efficient Exploration for Reinforcement Learning Using
Unsupervised Learning [96.78504087416654]
強化学習(RL)問題における効率的な探索に教師なし学習を用い,本パラダイムが有効であるかどうかを考察する。
本稿では,教師なし学習アルゴリズムと非線形表RLアルゴリズムという,2つのコンポーネント上に構築された汎用的なアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-15T19:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。