論文の概要: Theoretical Foundations of Adversarially Robust Learning
- arxiv url: http://arxiv.org/abs/2306.07723v1
- Date: Tue, 13 Jun 2023 12:20:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 13:51:05.893270
- Title: Theoretical Foundations of Adversarially Robust Learning
- Title(参考訳): 対人ロバスト学習の理論的基礎
- Authors: Omar Montasser
- Abstract要約: 現在の機械学習システムは、敵の例に対して脆弱であることが示されている。
この論文では、敵の例に対して、ロバストネス特性がどのような保証を期待できるかを論じる。
- 参考スコア(独自算出の注目度): 7.589246500826111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite extraordinary progress, current machine learning systems have been
shown to be brittle against adversarial examples: seemingly innocuous but
carefully crafted perturbations of test examples that cause machine learning
predictors to misclassify. Can we learn predictors robust to adversarial
examples? and how? There has been much empirical interest in this contemporary
challenge in machine learning, and in this thesis, we address it from a
theoretical perspective.
In this thesis, we explore what robustness properties can we hope to
guarantee against adversarial examples and develop an understanding of how to
algorithmically guarantee them. We illustrate the need to go beyond traditional
approaches and principles such as empirical risk minimization and uniform
convergence, and make contributions that can be categorized as follows: (1)
introducing problem formulations capturing aspects of emerging practical
challenges in robust learning, (2) designing new learning algorithms with
provable robustness guarantees, and (3) characterizing the complexity of robust
learning and fundamental limitations on the performance of any algorithm.
- Abstract(参考訳): 異常な進歩にもかかわらず、現在の機械学習システムは、悪意のある例に対して脆弱であることが示されている。
逆例に頑健な予測器を学べるか?
どうやって?
機械学習におけるこの現代的課題には、多くの経験的関心があり、この論文では、理論的観点からそれに取り組む。
本論文では,敵の例に対してどのようなロバスト性特性を保証し,アルゴリズムによる保証の方法についての理解を深めたい。
実証的リスク最小化や一様収束といった従来のアプローチや原則を越えて、(1)堅牢な学習における新たな実践的課題の側面を捉えた問題定式化の導入、(2)堅牢性を保証するための新たな学習アルゴリズムの設計、(3)堅牢な学習の複雑さとアルゴリズムの性能に関する基本的な制限を特徴付ける。
関連論文リスト
- Adversarial Training Can Provably Improve Robustness: Theoretical Analysis of Feature Learning Process Under Structured Data [38.44734564565478]
本稿では, 特徴学習理論の観点から, 対角的例と対角的学習アルゴリズムの理論的理解を提供する。
本手法は,頑健な特徴学習を効果的に強化し,非ロバストな特徴学習を抑えることができることを示す。
論文 参考訳(メタデータ) (2024-10-11T03:59:49Z) - Fairness, Accuracy, and Unreliable Data [0.0]
本論文は,機械学習の信頼性向上を目的とした3つの領域,機械学習の公正性,戦略的分類,アルゴリズム的堅牢性について考察する。
この論文全体のテーマは、古典的な学習理論の仮定と、野生におけるデータ分布の特定の性質とのミスマッチのため、平易な経験的リスク最小化アルゴリズムが誤解を招くか、効果がないかという方法を考えることである。
論文 参考訳(メタデータ) (2024-08-28T17:44:08Z) - Computability of Classification and Deep Learning: From Theoretical Limits to Practical Feasibility through Quantization [53.15874572081944]
ディープラーニングフレームワークにおける計算可能性について,2つの観点から検討する。
根底にある問題が十分に解決された場合でも、ディープニューラルネットワークを訓練する際のアルゴリズム上の制限を示す。
最後に、分類と深層ネットワークトレーニングの定量化バージョンにおいて、計算可能性の制限は発生せず、一定の程度まで克服可能であることを示す。
論文 参考訳(メタデータ) (2024-08-12T15:02:26Z) - Rethinking Randomized Smoothing from the Perspective of Scalability [0.0]
ランダムな平滑化は、顕著な進歩の中で有望なテクニックとして現れている。
ランダム化平滑化の基礎となる概念を詳細に探求する。
我々は、敵の摂動に対する堅牢性を証明する理論的保証を強調した。
論文 参考訳(メタデータ) (2023-12-19T21:27:02Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Understanding Self-Predictive Learning for Reinforcement Learning [61.62067048348786]
強化学習のための自己予測学習の学習ダイナミクスについて検討する。
本稿では,2つの表現を同時に学習する新しい自己予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-06T20:43:37Z) - Adversarial Robustness with Semi-Infinite Constrained Learning [177.42714838799924]
入力に対する深い学習は、安全クリティカルなドメインでの使用に関して深刻な疑問を提起している。
本稿では,この問題を緩和するために,Langevin Monte Carlo のハイブリッドトレーニング手法を提案する。
当社のアプローチは、最先端のパフォーマンスと堅牢性の間のトレードオフを軽減することができることを示す。
論文 参考訳(メタデータ) (2021-10-29T13:30:42Z) - Quantifying Epistemic Uncertainty in Deep Learning [15.494774321257939]
不確かさの定量化は、機械学習の信頼性と堅牢性の中核にある。
深層学習における不確実性,特にテクテプステミック成分を識別する理論的枠組みを提供する。
本稿では,これらの不確かさを推定する2つの手法を提案し,その1つは影響関数に基づくものであり,もう1つは変数に関するものである。
論文 参考訳(メタデータ) (2021-10-23T03:21:10Z) - When and How to Fool Explainable Models (and Humans) with Adversarial
Examples [1.439518478021091]
説明可能な機械学習モデルに対する敵攻撃の可能性と限界について検討する。
まず、逆例の概念を拡張して、説明可能な機械学習シナリオに適合する。
次に、説明可能なモデルに対して、逆例を生成できるかどうかを総合的に検討する枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-05T11:20:55Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Probably Approximately Correct Constrained Learning [135.48447120228658]
我々は、ほぼ正しい学習フレームワーク(PAC)に基づく一般化理論を開発する。
PAC学習可能なクラスも制約のある学習者であるという意味では,学習者の導入は学習問題を難しくするものではないことを示す。
このソリューションの特性を分析し,制約付き学習が公平でロバストな分類における問題にどのように対処できるかを説明する。
論文 参考訳(メタデータ) (2020-06-09T19:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。