論文の概要: Correcting for Selection Bias and Missing Response in Regression using
Privileged Information
- arxiv url: http://arxiv.org/abs/2303.16800v2
- Date: Mon, 12 Jun 2023 08:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 00:43:26.501293
- Title: Correcting for Selection Bias and Missing Response in Regression using
Privileged Information
- Title(参考訳): 特権情報を用いた回帰における選択バイアスと欠落応答の補正
- Authors: Philip Boeken, Noud de Kroon, Mathijs de Jong, Joris M. Mooij, Onno
Zoeter
- Abstract要約: 本稿では,Privilegedly Missing at Random(PMAR)に適した繰り返し回帰法を提案する。
提案手法の性能をシミュレーション実験により実証的に評価し,実世界のデータセットを合成的に拡張した。
- 参考スコア(独自算出の注目度): 1.5049442691806052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When estimating a regression model, we might have data where some labels are
missing, or our data might be biased by a selection mechanism. When the
response or selection mechanism is ignorable (i.e., independent of the response
variable given the features) one can use off-the-shelf regression methods; in
the nonignorable case one typically has to adjust for bias. We observe that
privileged information (i.e. information that is only available during
training) might render a nonignorable selection mechanism ignorable, and we
refer to this scenario as Privilegedly Missing at Random (PMAR). We propose a
novel imputation-based regression method, named repeated regression, that is
suitable for PMAR. We also consider an importance weighted regression method,
and a doubly robust combination of the two. The proposed methods are easy to
implement with most popular out-of-the-box regression algorithms. We
empirically assess the performance of the proposed methods with extensive
simulated experiments and on a synthetically augmented real-world dataset. We
conclude that repeated regression can appropriately correct for bias, and can
have considerable advantage over weighted regression, especially when
extrapolating to regions of the feature space where response is never observed.
- Abstract(参考訳): 回帰モデルを推定する場合、ラベルが欠落しているデータや、選択メカニズムに偏っているデータがあるかもしれません。
応答または選択機構が無視可能である場合(つまり、特徴が与えられた応答変数とは独立である)、オフ・ザ・シェルフ回帰法(英語版)を用いることができる。
我々は、特権情報(訓練中にのみ利用できる情報)が無視できない選択メカニズムを生じさせる可能性があることを観察し、このシナリオをPMAR(Privlegedly Missing at Random)と呼ぶ。
本稿では,pmarに適した新しい帰納的回帰法である反復回帰法を提案する。
また,重み付き回帰法と2つの組み合わせを二重に頑健に検討した。
提案手法は,最も一般的な回帰アルゴリズムを用いて容易に実装できる。
提案手法の性能をシミュレーション実験と合成拡張実世界データセットを用いて実験的に評価した。
繰り返しの回帰はバイアスに対して適切に正し、特に応答が観測されない特徴空間の領域を外挿する場合、重み付き回帰よりもかなりの利点があると結論づける。
関連論文リスト
- Model Agnostic Explainable Selective Regression via Uncertainty
Estimation [15.331332191290727]
本稿では,モデルに依存しない非パラメトリック不確実性推定を用いた選択回帰手法を提案する。
提案フレームワークは,最先端の選択的回帰器と比較して優れた性能を示す。
オープンソースPythonパッケージに選択的回帰法を実装し、実験を再現するために使用するコードをリリースする。
論文 参考訳(メタデータ) (2023-11-15T17:40:48Z) - Engression: Extrapolation for Nonlinear Regression? [2.9761801768136253]
補間は、トレーニングサポート外のテストデータに遭遇することが一般的であるため、多くの統計学および機械学習アプリケーションにおいて重要である。
本研究の目的は,トレーニングサポートの境界において,信頼性がすぐに崩壊しない非線形回帰手法を提供することである。
我々の主な貢献は「エングレース」と呼ばれる新しい手法であり、その中核となるのは、前加法雑音モデルに対する分布回帰手法である。
論文 参考訳(メタデータ) (2023-07-03T08:19:00Z) - Deep Regression Unlearning [6.884272840652062]
我々は、プライバシー攻撃に対して堅牢な、一般化された深層回帰学習手法を導入する。
我々は、コンピュータビジョン、自然言語処理、予測アプリケーションのための回帰学習実験を行う。
論文 参考訳(メタデータ) (2022-10-15T05:00:20Z) - High-dimensional regression with potential prior information on variable
importance [0.0]
順序付けによって示されるモデルの列に適合する簡単なスキームを提案する。
リッジ回帰を用いた場合の全てのモデルの適合に対する計算コストは、リッジ回帰の1つの適合に留まらないことを示す。
モデル全体の整合性を大幅に高速化するために,従来の整合性を利用したラッソ回帰の戦略を述べる。
論文 参考訳(メタデータ) (2021-09-23T10:34:37Z) - ReLU Regression with Massart Noise [52.10842036932169]
本稿では、ReLU回帰の基本的問題として、Rectified Linear Units(ReLU)をデータに適合させることを目標としている。
我々は自然およびよく研究された半ランダムノイズモデルであるMassartノイズモデルにおけるReLU回帰に着目した。
このモデルにおいて,パラメータの正確な回復を実現する効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-10T02:13:22Z) - Human Pose Regression with Residual Log-likelihood Estimation [48.30425850653223]
本稿では,Residual Log-likelihood Estimation (RLE) を用いた新たな回帰パラダイムを提案する。
RLEは、トレーニングプロセスを容易にするために、未参照の基盤となる分布ではなく、分布の変化を学習する。
従来の回帰パラダイムと比較して、RLEによる回帰はテスト時間オーバーヘッドを伴わずに、MSCOCOに12.4mAPの改善をもたらす。
論文 参考訳(メタデータ) (2021-07-23T15:06:31Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - A Hypergradient Approach to Robust Regression without Correspondence [85.49775273716503]
本稿では,入力データと出力データとの対応が不十分な回帰問題について考察する。
ほとんどの既存手法はサンプルサイズが小さい場合にのみ適用できる。
シャッフル回帰問題に対する新しい計算フレームワークであるROBOTを提案する。
論文 参考訳(メタデータ) (2020-11-30T21:47:38Z) - Censored Quantile Regression Forest [81.9098291337097]
我々は、検閲に適応し、データが検閲を示さないときに量子スコアをもたらす新しい推定方程式を開発する。
提案手法は, パラメトリックなモデリング仮定を使わずに, 時間単位の定量を推定することができる。
論文 参考訳(メタデータ) (2020-01-08T23:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。