論文の概要: Multicalibration as Boosting for Regression
- arxiv url: http://arxiv.org/abs/2301.13767v1
- Date: Tue, 31 Jan 2023 17:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 15:43:47.463393
- Title: Multicalibration as Boosting for Regression
- Title(参考訳): 回帰の促進としてのマルチキャリブレーション
- Authors: Ira Globus-Harris and Declan Harrison and Michael Kearns and Aaron
Roth and Jessica Sorrell
- Abstract要約: 本稿では,2乗誤差回帰に対する多重校正とブースティングの関連性について検討する。
我々はベイズ最適性への収束を保証するHについて弱い学習仮定を与える。
また、H が他のクラス C に対して弱い学習条件を満たすならば、H に対する多重校正は C に対する多重校正を意味することを示す。
- 参考スコア(独自算出の注目度): 9.737139416043949
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the connection between multicalibration and boosting for squared
error regression. First we prove a useful characterization of multicalibration
in terms of a ``swap regret'' like condition on squared error. Using this
characterization, we give an exceedingly simple algorithm that can be analyzed
both as a boosting algorithm for regression and as a multicalibration algorithm
for a class H that makes use only of a standard squared error regression oracle
for H. We give a weak learning assumption on H that ensures convergence to
Bayes optimality without the need to make any realizability assumptions --
giving us an agnostic boosting algorithm for regression. We then show that our
weak learning assumption on H is both necessary and sufficient for
multicalibration with respect to H to imply Bayes optimality. We also show that
if H satisfies our weak learning condition relative to another class C then
multicalibration with respect to H implies multicalibration with respect to C.
Finally we investigate the empirical performance of our algorithm
experimentally using an open source implementation that we make available. Our
code repository can be found at
https://github.com/Declancharrison/Level-Set-Boosting.
- Abstract(参考訳): 本研究では,2乗誤差回帰の多重化とブースティングの関係について検討する。
まず、二乗誤差における ``swap regret'' のような条件で多重校正の有用な特徴を証明した。
この特徴量を用いて、回帰のためのブースティングアルゴリズムと、h の標準二乗誤差回帰のみを使用するクラス h のマルチキャリブレーションアルゴリズムの両方として解析できる非常に単純なアルゴリズムを与える。
次に、H に対する弱い学習仮定は、ベイズ最適性を示すために H に対する多重校正に必要かつ十分であることを示す。
また,H が他のクラス C と比較して弱い学習条件を満たすならば,H に対する多重校正は C に対する多重校正を意味することを示す。
私たちのコードリポジトリはhttps://github.com/Declancharrison/Level-Set-Boosting.orgにある。
関連論文リスト
- Classifier Calibration with ROC-Regularized Isotonic Regression [0.0]
等方性回帰を用いてモノトン変換による校正集合上のクロスエントロピーを最小化する。
IRは適応的なバイナリ処理として機能し、キャリブレーション誤差をゼロにすることができるが、性能への影響は未解決である。
この一般単調な基準は、クロスエントロピー損失の低減と校正セットの過度な適合の回避のバランスを打つのに有効であることを示す。
論文 参考訳(メタデータ) (2023-11-21T08:45:09Z) - Planning and Learning with Adaptive Lookahead [74.39132848733847]
ポリシーイテレーション(PI)アルゴリズムは、欲求の一段階の改善と政策評価を交互に行う。
近年の文献では、複数段階のルックアヘッドポリシーの改善が、イテレーション毎の複雑さの増加を犠牲にして、よりコンバージェンス率の向上につながることが示されている。
本研究では,多段階の地平線を状態と推定値の関数として動的に適応する手法を初めて提案する。
論文 参考訳(メタデータ) (2022-01-28T20:26:55Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Sparse Bayesian Learning via Stepwise Regression [1.2691047660244335]
我々は、RMP(Relevance Matching Pursuit)と呼ばれるSBLのための座標加算アルゴリズムを提案する。
ノイズ分散パラメータがゼロになるにつれて、RMPはステップワイド回帰と驚くべき関係を示す。
ステップワイド回帰アルゴリズムの新たな保証を導き、RMPにも光を当てる。
論文 参考訳(メタデータ) (2021-06-11T00:20:27Z) - Gradient Boosted Binary Histogram Ensemble for Large-scale Regression [60.16351608335641]
本研究では,2値ヒストグラム分割とアンサンブル学習に基づくテキストグラディエント2値ヒストグラムアンサンブル(GBBHE)と呼ばれる大規模回帰問題に対する勾配向上アルゴリズムを提案する。
実験では, 勾配向上回帰木 (GBRT) などの他の最先端アルゴリズムと比較して, GBBHEアルゴリズムは大規模データセット上での実行時間が少なく, 有望な性能を示す。
論文 参考訳(メタデータ) (2021-06-03T17:05:40Z) - Causal Gradient Boosting: Boosted Instrumental Variable Regression [2.831053006774813]
本稿では,従来の勾配押し上げアルゴリズムに基づいて内在性バイアスを補正するBoostIVというアルゴリズムを提案する。
私たちのアプローチはデータ駆動です。つまり、研究者はターゲット関数の近似や楽器の選択の形でもスタンスを作らなくてもよいのです。
boostIVは既存の方法と同等に最悪であり、平均するとそれらの方法よりもはるかに優れています。
論文 参考訳(メタデータ) (2021-01-15T11:54:25Z) - Finite-Time Analysis for Double Q-learning [50.50058000948908]
二重Q-ラーニングのための非漸近的有限時間解析を初めて提供する。
同期と非同期の二重Q-ラーニングの両方が,グローバル最適化の$epsilon$-accurate近辺に収束することが保証されていることを示す。
論文 参考訳(メタデータ) (2020-09-29T18:48:21Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression [0.0]
本稿では、収束保証付き非正則正規化器のためのワーキングセットアルゴリズムを提案する。
その結果,ブロックコーディネートや勾配ソルバの完全解法と比較して高い利得を示した。
論文 参考訳(メタデータ) (2020-06-24T07:40:31Z) - Approximation Schemes for ReLU Regression [80.33702497406632]
我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
論文 参考訳(メタデータ) (2020-05-26T16:26:17Z) - Robust Boosting for Regression Problems [0.0]
基底学習者の線形結合による回帰予測アルゴリズムの構築
このロバストなブースティングアルゴリズムは、2段階のアプローチに基づいており、ロバストな線形回帰のためにブースティングが行なわれているのと同様である。
非定型的な観測が存在しない場合、頑健な昇降法は正方形損失を伴う標準勾配昇降法と同様に機能する。
論文 参考訳(メタデータ) (2020-02-06T01:12:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。