論文の概要: Reliable learning in challenging environments
- arxiv url: http://arxiv.org/abs/2304.03370v2
- Date: Sun, 29 Oct 2023 07:17:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 22:50:56.948294
- Title: Reliable learning in challenging environments
- Title(参考訳): 挑戦的環境における信頼性のある学習
- Authors: Maria-Florina Balcan, Steve Hanneke, Rattana Pukdee, Dravyansh Sharma
- Abstract要約: テスト時間環境における信頼性のある学習者の設計と分析について考察する。
このような設定において、確実に最適な保証を得られる信頼性のある学習者を提供する。
- 参考スコア(独自算出の注目度): 40.65847539979049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of designing learners that provide guarantees that their
predictions are provably correct is of increasing importance in machine
learning. However, learning theoretic guarantees have only been considered in
very specific settings. In this work, we consider the design and analysis of
reliable learners in challenging test-time environments as encountered in
modern machine learning problems: namely `adversarial' test-time attacks (in
several variations) and `natural' distribution shifts. In this work, we provide
a reliable learner with provably optimal guarantees in such settings. We
discuss computationally feasible implementations of the learner and further
show that our algorithm achieves strong positive performance guarantees on
several natural examples: for example, linear separators under log-concave
distributions or smooth boundary classifiers under smooth probability
distributions.
- Abstract(参考訳): 予測が確実に正しいことを保証する学習者を設計する問題は、機械学習の重要性を高めることである。
しかし、学習理論の保証は、非常に特定の設定でのみ考慮されている。
本研究では,現代の機械学習問題に遭遇するテストタイム環境における信頼性のある学習者の設計と分析について考察する。
本研究は,このような設定において,確実に最適な保証を得られる信頼性のある学習者を提供する。
本稿では,学習者の計算可能実装について考察し,例えば,対数凹面分布の線形分離器やスムーズな確率分布の境界分類器など,いくつかの自然例において,アルゴリズムが強い正の性能保証を実現することを示す。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - A Moment-Matching Approach to Testable Learning and a New
Characterization of Rademacher Complexity [15.746613321517282]
我々は、モーメントマッチングやメートル法非依存のツールを用いて、テスト可能な学習アルゴリズムを開発するための強力な新しいアプローチを提案する。
意外なことに、テスト可能な学習における情報理論の複雑さは、概念クラスのRademacher複雑さによって強く特徴づけられている。
論文 参考訳(メタデータ) (2022-11-23T21:29:51Z) - Neural Active Learning on Heteroskedastic Distributions [29.01776999862397]
ヘテロスケダスティックデータセット上でのアクティブ学習アルゴリズムの破滅的な失敗を実証する。
本稿では,各データポイントにモデル差分スコアリング関数を組み込んで,ノイズの多いサンプルとサンプルクリーンなサンプルをフィルタするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-02T07:30:19Z) - Robustly-reliable learners under poisoning attacks [38.55373038919402]
複数の軸にまたがる攻撃に直面して強靭性を保証する方法を示す。
我々は、敵が所定の汚職予算を超過していない限り、予測されたラベルが正しいことが保証される、信頼性の高い予測を提供する。
注目すべきは、この設定における学習可能性の完全な特徴付け、特に、認定可能な領域上の上と下の境界にほぼ整合するものである。
論文 参考訳(メタデータ) (2022-03-08T15:43:33Z) - A Gentle Introduction to Conformal Prediction and Distribution-Free
Uncertainty Quantification [1.90365714903665]
このハンズオン導入は、配布不要なUQの実践的な実装に関心のある読者を対象としている。
PyTorch構文で、Pythonで説明的なイラストやサンプル、コードサンプルを多数含みます。
論文 参考訳(メタデータ) (2021-07-15T17:59:50Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。