論文の概要: Towards optimally abstaining from prediction
- arxiv url: http://arxiv.org/abs/2105.14119v1
- Date: Fri, 28 May 2021 21:44:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-05 23:58:03.016506
- Title: Towards optimally abstaining from prediction
- Title(参考訳): 予測から最適に吸収する
- Authors: Adam Tauman Kalai, Varun Kanade
- Abstract要約: 機械学習のあらゆる領域に共通する課題は、トレーニングデータがテストデータのように分散されていないことだ。
一定のコストで予測を控えるモデルを考える。
我々は、Goldwasser、Kalais、Montasser(2020年)の最近の禁断アルゴリズムに基づいて、トランスダクティブバイナリ分類を行った。
- 参考スコア(独自算出の注目度): 22.937799541125607
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common challenge across all areas of machine learning is that training data
is not distributed like test data, due to natural shifts, "blind spots," or
adversarial examples. We consider a model where one may abstain from
predicting, at a fixed cost. In particular, our transductive abstention
algorithm takes labeled training examples and unlabeled test examples as input,
and provides predictions with optimal prediction loss guarantees. The loss
bounds match standard generalization bounds when test examples are i.i.d. from
the training distribution, but add an additional term that is the cost of
abstaining times the statistical distance between the train and test
distribution (or the fraction of adversarial examples). For linear regression,
we give a polynomial-time algorithm based on Celis-Dennis-Tapia optimization
algorithms. For binary classification, we show how to efficiently implement it
using a proper agnostic learner (i.e., an Empirical Risk Minimizer) for the
class of interest. Our work builds on a recent abstention algorithm of
Goldwasser, Kalais, and Montasser (2020) for transductive binary
classification.
- Abstract(参考訳): 機械学習のあらゆる領域に共通する課題は、自然なシフトや"盲点"、あるいは敵の例のために、トレーニングデータがテストデータのように分散されていないことだ。
一定のコストで予測を控えるモデルを考える。
特に,提案アルゴリズムはラベル付きトレーニング例とラベルなしテスト例を入力として,最適な予測損失保証を備えた予測を行う。
損失境界は、テスト例が i.i.d であるときの標準一般化境界と一致する。
トレーニング分布から見て、列車とテスト分布の間の統計的距離(あるいは敵の例のごく一部)を短縮するコストとして追加用語を加える。
線形回帰では,celis-dennis-tapia最適化アルゴリズムに基づく多項式時間アルゴリズムを提案する。
二項分類では、興味のあるクラスに対して適切な学習者(経験的リスク最小化器)を用いて効果的に実装する方法を示す。
本研究は,最近のgoldwasser,kalais,montasser(2020)の帰納的二元分類のためのアブステンションアルゴリズムに基づいている。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Loss-to-Loss Prediction: Scaling Laws for All Datasets [17.078832037614397]
我々は、ある損失を別の損失から予測し、異なる事前学習データセットにわたって予測するためにそれを適用する戦略を導出する。
我々の予測は、曲線に合わせるのに使われた最大のFLOP予算の20倍でさえ、よく表される。
論文 参考訳(メタデータ) (2024-11-19T23:23:16Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Partial-Label Learning with a Reject Option [3.1201323892302444]
本稿では,不確実な予測を拒否できるリジェクションオプションを持つ新しい部分ラベル学習アルゴリズムを提案する。
提案手法は, 競合相手と比較して, 非還元予測の数と精度の最良のトレードオフを提供する。
論文 参考訳(メタデータ) (2024-02-01T13:41:44Z) - Intersection of Parallels as an Early Stopping Criterion [64.8387564654474]
そこで本研究では,検証セットを必要とせずに,トレーニングイテレーションの早期停止点を見つける手法を提案する。
幅広い学習率において,コサイン距離基準 (CDC) と呼ばれる手法は,比較したすべての手法よりも平均的な一般化に寄与する。
論文 参考訳(メタデータ) (2022-08-19T19:42:41Z) - Efficient and Differentiable Conformal Prediction with General Function
Classes [96.74055810115456]
本稿では,複数の学習可能なパラメータに対する共形予測の一般化を提案する。
本研究は, クラス内において, ほぼ有効な人口被覆率, ほぼ最適効率を実現していることを示す。
実験の結果,提案アルゴリズムは有効な予測セットを学習し,効率を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-22T18:37:23Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Coherent False Seizure Prediction in Epilepsy, Coincidence or
Providence? [0.2770822269241973]
機械学習を用いた清水予測は可能であるが、その性能は理想的ではない。
本稿では,長期データセット上での2つのアルゴリズムの誤報と誤報について検討する。
論文 参考訳(メタデータ) (2021-10-26T10:25:14Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Robust Fairness-aware Learning Under Sample Selection Bias [17.09665420515772]
サンプル選択バイアス下での頑健で公正な学習のための枠組みを提案する。
テストデータが利用可能で、利用できない場合に、サンプル選択バイアスを処理する2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-05-24T23:23:36Z) - Model adaptation and unsupervised learning with non-stationary batch
data under smooth concept drift [8.068725688880772]
ほとんどの予測モデルは、トレーニングとテストデータは定常的なプロセスから生成されると仮定する。
我々は、データソースの非定常性に起因する段階的な概念の漂流のシナリオを考察する。
予測モデルの教師なし適応のための新しい反復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-10T21:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。