論文の概要: Balance-Subsampled Stable Prediction
- arxiv url: http://arxiv.org/abs/2006.04381v1
- Date: Mon, 8 Jun 2020 07:01:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:26:53.685740
- Title: Balance-Subsampled Stable Prediction
- Title(参考訳): バランスサブサンプル安定予測
- Authors: Kun Kuang, Hengtao Zhang, Fei Wu, Yueting Zhuang and Aijun Zhang
- Abstract要約: 本稿では, 分数分解設計理論に基づく新しいバランスサブサンプル安定予測法を提案する。
設計理論解析により,提案手法は分布シフトによって誘導される予測器間の共起効果を低減できることを示した。
合成および実世界の両方のデータセットに関する数値実験により、BSSPアルゴリズムは未知のテストデータ間で安定した予測を行うためのベースライン法を著しく上回っていることが示された。
- 参考スコア(独自算出の注目度): 55.13512328954456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In machine learning, it is commonly assumed that training and test data share
the same population distribution. However, this assumption is often violated in
practice because the sample selection bias may induce the distribution shift
from training data to test data. Such a model-agnostic distribution shift
usually leads to prediction instability across unknown test data. In this
paper, we propose a novel balance-subsampled stable prediction (BSSP) algorithm
based on the theory of fractional factorial design. It isolates the clear
effect of each predictor from the confounding variables. A design-theoretic
analysis shows that the proposed method can reduce the confounding effects
among predictors induced by the distribution shift, hence improve both the
accuracy of parameter estimation and prediction stability. Numerical
experiments on both synthetic and real-world data sets demonstrate that our
BSSP algorithm significantly outperforms the baseline methods for stable
prediction across unknown test data.
- Abstract(参考訳): 機械学習では、トレーニングとテストデータが同じ人口分布を共有していると一般的に仮定される。
しかし、サンプル選択バイアスがトレーニングデータからテストデータへの分布シフトを引き起こす可能性があるため、実際にこの仮定に違反することが多い。
このようなモデルに依存しない分布シフトは、通常未知のテストデータ間での予測不安定をもたらす。
本稿では,分数階乗設計の理論に基づく新しいバランス代入安定予測(bssp)アルゴリズムを提案する。
それぞれの予測器の明確な効果を結合変数から分離する。
設計理論的解析により,提案手法は分布シフトによって引き起こされる予測器間の結合効果を低減し,パラメータ推定の精度と予測安定性を向上できることを示した。
合成および実世界の両方のデータセットに関する数値実験により、BSSPアルゴリズムは未知のテストデータ間で安定した予測を行うためのベースライン法を著しく上回ることを示した。
関連論文リスト
- Invariant Probabilistic Prediction [45.90606906307022]
任意の分布シフトは、一般に不変かつ頑健な確率的予測を認めないことを示す。
Invariant probabilistic predictions called IPP, and study the consistency of the underlying parameters。
論文 参考訳(メタデータ) (2023-09-18T18:50:24Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - Prediction-Powered Inference [68.97619568620709]
予測を用いた推論は、実験データセットに機械学習システムからの予測を補足した場合に有効な統計的推論を行うためのフレームワークである。
このフレームワークは、手段、量子、線形およびロジスティック回帰係数などの量に対して証明可能な信頼区間を計算するための単純なアルゴリズムを生成する。
予測による推論により、研究者は機械学習を使用して、より有効な、よりデータ効率の高い結論を導き出すことができる。
論文 参考訳(メタデータ) (2023-01-23T18:59:28Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Causal Transfer Random Forest: Combining Logged Data and Randomized
Experiments for Robust Prediction [8.736551469632758]
本稿では,既存のトレーニングデータとランダム化実験から得られた少量のデータを組み合わせてモデルを訓練するCTRFについて述べる。
我々は,Bing Adsプラットフォームにおける合成データ実験と実世界の実験の両方を用いてCTRFを評価する。
論文 参考訳(メタデータ) (2020-10-17T03:54:37Z) - Robust Validation: Confident Predictions Even When Distributions Shift [19.327409270934474]
本稿では,モデルが点予測ではなく,その予測に対して不確実な推定を行うような,頑健な予測推論の手順について述べる。
本稿では, トレーニング集団の周囲に$f$-divergence のボールを用いて, 任意のテスト分布に対して適切なカバレッジレベルを与える予測セットを生成する手法を提案する。
私たちの方法論の重要な構成要素は、将来のデータシフトの量を見積り、それに対する堅牢性を構築することです。
論文 参考訳(メタデータ) (2020-08-10T17:09:16Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Stable Prediction via Leveraging Seed Variable [73.9770220107874]
従来の機械学習手法は、非因果変数によって誘導されるトレーニングデータにおいて、微妙に刺激的な相関を利用して予測する。
本研究では, 条件付き独立性テストに基づくアルゴリズムを提案し, 種子変数を先行変数とする因果変数を分離し, 安定な予測に採用する。
我々のアルゴリズムは、安定した予測のための最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-06-09T06:56:31Z) - Stable Prediction with Model Misspecification and Agnostic Distribution
Shift [41.26323389341987]
機械学習アルゴリズムでは、2つの主要な仮定が性能を保証するために必要である。
1つは、トレーニングデータと同じ分布からテストデータが引き出され、もう1つは、モデルが正しく指定されていることである。
モデルのミススペクテーションの下では、トレーニングデータとテストデータの間の分布シフトは、パラメータ推定の不正確さと未知のテストデータ間の予測の不安定性をもたらす。
可変デコリレーション正規化器と重み付き回帰モデルとを協調的に最適化する新しいDecororrelated Weighting Regression (DWR)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-31T08:56:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。