論文の概要: Correcting for Selection Bias and Missing Response in Regression using
Privileged Information
- arxiv url: http://arxiv.org/abs/2303.16800v2
- Date: Mon, 12 Jun 2023 08:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 00:43:26.501293
- Title: Correcting for Selection Bias and Missing Response in Regression using
Privileged Information
- Title(参考訳): 特権情報を用いた回帰における選択バイアスと欠落応答の補正
- Authors: Philip Boeken, Noud de Kroon, Mathijs de Jong, Joris M. Mooij, Onno
Zoeter
- Abstract要約: 本稿では,Privilegedly Missing at Random(PMAR)に適した繰り返し回帰法を提案する。
提案手法の性能をシミュレーション実験により実証的に評価し,実世界のデータセットを合成的に拡張した。
- 参考スコア(独自算出の注目度): 1.5049442691806052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When estimating a regression model, we might have data where some labels are
missing, or our data might be biased by a selection mechanism. When the
response or selection mechanism is ignorable (i.e., independent of the response
variable given the features) one can use off-the-shelf regression methods; in
the nonignorable case one typically has to adjust for bias. We observe that
privileged information (i.e. information that is only available during
training) might render a nonignorable selection mechanism ignorable, and we
refer to this scenario as Privilegedly Missing at Random (PMAR). We propose a
novel imputation-based regression method, named repeated regression, that is
suitable for PMAR. We also consider an importance weighted regression method,
and a doubly robust combination of the two. The proposed methods are easy to
implement with most popular out-of-the-box regression algorithms. We
empirically assess the performance of the proposed methods with extensive
simulated experiments and on a synthetically augmented real-world dataset. We
conclude that repeated regression can appropriately correct for bias, and can
have considerable advantage over weighted regression, especially when
extrapolating to regions of the feature space where response is never observed.
- Abstract(参考訳): 回帰モデルを推定する場合、ラベルが欠落しているデータや、選択メカニズムに偏っているデータがあるかもしれません。
応答または選択機構が無視可能である場合(つまり、特徴が与えられた応答変数とは独立である)、オフ・ザ・シェルフ回帰法(英語版)を用いることができる。
我々は、特権情報(訓練中にのみ利用できる情報)が無視できない選択メカニズムを生じさせる可能性があることを観察し、このシナリオをPMAR(Privlegedly Missing at Random)と呼ぶ。
本稿では,pmarに適した新しい帰納的回帰法である反復回帰法を提案する。
また,重み付き回帰法と2つの組み合わせを二重に頑健に検討した。
提案手法は,最も一般的な回帰アルゴリズムを用いて容易に実装できる。
提案手法の性能をシミュレーション実験と合成拡張実世界データセットを用いて実験的に評価した。
繰り返しの回帰はバイアスに対して適切に正し、特に応答が観測されない特徴空間の領域を外挿する場合、重み付き回帰よりもかなりの利点があると結論づける。
関連論文リスト
- Unintentional Unalignment: Likelihood Displacement in Direct Preference Optimization [60.176008034221404]
直接選好最適化(DPO)とその変種は、言語モデルと人間の選好の整合にますます利用されている。
以前の研究では、トレーニング中に好まれる反応の可能性が減少する傾向が見られた。
確率変位は破滅的になりうることを示し、確率質量を好ましくない反応から反対の意味の反応へとシフトさせる。
論文 参考訳(メタデータ) (2024-10-11T14:22:44Z) - Generalized Regression with Conditional GANs [2.4171019220503402]
本稿では,学習データセットにおける特徴ラベルペアと,対応する入力と組み合わせて出力を区別できない予測関数を学習することを提案する。
回帰に対するこのアプローチは、私たちが適合するデータの分布に対する仮定を減らし、表現能力が向上することを示す。
論文 参考訳(メタデータ) (2024-04-21T01:27:47Z) - Model Agnostic Explainable Selective Regression via Uncertainty
Estimation [15.331332191290727]
本稿では,モデルに依存しない非パラメトリック不確実性推定を用いた選択回帰手法を提案する。
提案フレームワークは,最先端の選択的回帰器と比較して優れた性能を示す。
オープンソースPythonパッケージに選択的回帰法を実装し、実験を再現するために使用するコードをリリースする。
論文 参考訳(メタデータ) (2023-11-15T17:40:48Z) - Engression: Extrapolation through the Lens of Distributional Regression [2.519266955671697]
我々は、エングレースと呼ばれるニューラルネットワークに基づく分布回帰手法を提案する。
エングレスモデル(engression model)は、適合した条件分布からサンプリングできるという意味で生成され、高次元結果にも適している。
一方、最小二乗法や量子回帰法のような従来の回帰手法は、同じ仮定の下では不十分である。
論文 参考訳(メタデータ) (2023-07-03T08:19:00Z) - Deep Regression Unlearning [6.884272840652062]
我々は、プライバシー攻撃に対して堅牢な、一般化された深層回帰学習手法を導入する。
我々は、コンピュータビジョン、自然言語処理、予測アプリケーションのための回帰学習実験を行う。
論文 参考訳(メタデータ) (2022-10-15T05:00:20Z) - High-dimensional regression with potential prior information on variable
importance [0.0]
順序付けによって示されるモデルの列に適合する簡単なスキームを提案する。
リッジ回帰を用いた場合の全てのモデルの適合に対する計算コストは、リッジ回帰の1つの適合に留まらないことを示す。
モデル全体の整合性を大幅に高速化するために,従来の整合性を利用したラッソ回帰の戦略を述べる。
論文 参考訳(メタデータ) (2021-09-23T10:34:37Z) - Human Pose Regression with Residual Log-likelihood Estimation [48.30425850653223]
本稿では,Residual Log-likelihood Estimation (RLE) を用いた新たな回帰パラダイムを提案する。
RLEは、トレーニングプロセスを容易にするために、未参照の基盤となる分布ではなく、分布の変化を学習する。
従来の回帰パラダイムと比較して、RLEによる回帰はテスト時間オーバーヘッドを伴わずに、MSCOCOに12.4mAPの改善をもたらす。
論文 参考訳(メタデータ) (2021-07-23T15:06:31Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - A Hypergradient Approach to Robust Regression without Correspondence [85.49775273716503]
本稿では,入力データと出力データとの対応が不十分な回帰問題について考察する。
ほとんどの既存手法はサンプルサイズが小さい場合にのみ適用できる。
シャッフル回帰問題に対する新しい計算フレームワークであるROBOTを提案する。
論文 参考訳(メタデータ) (2020-11-30T21:47:38Z) - Censored Quantile Regression Forest [81.9098291337097]
我々は、検閲に適応し、データが検閲を示さないときに量子スコアをもたらす新しい推定方程式を開発する。
提案手法は, パラメトリックなモデリング仮定を使わずに, 時間単位の定量を推定することができる。
論文 参考訳(メタデータ) (2020-01-08T23:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。