論文の概要: Robust Inference for High-Dimensional Linear Models via Residual
Randomization
- arxiv url: http://arxiv.org/abs/2106.07717v1
- Date: Mon, 14 Jun 2021 19:27:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 09:32:33.128534
- Title: Robust Inference for High-Dimensional Linear Models via Residual
Randomization
- Title(参考訳): 残留ランダム化による高次元線形モデルのロバスト推論
- Authors: Y. Samuel Wang, Si Kai Lee, Panos Toulis, Mladen Kolar
- Abstract要約: 本研究では,高次元環境下でのロバストなラッソ型推論のための残差ランダム化手法を提案する。
我々の手順はクラスタ化されたエラーの下で有効でありうるが、これは実際は重要であるが、初期の研究でほとんど見過ごされてきた。
提案手法は,現状の手法よりも,挑戦的かつ現実的な設定において優れていることを示す。
- 参考スコア(独自算出の注目度): 17.476564736665225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a residual randomization procedure designed for robust Lasso-based
inference in the high-dimensional setting. Compared to earlier work that
focuses on sub-Gaussian errors, the proposed procedure is designed to work
robustly in settings that also include heavy-tailed covariates and errors.
Moreover, our procedure can be valid under clustered errors, which is important
in practice, but has been largely overlooked by earlier work. Through extensive
simulations, we illustrate our method's wider range of applicability as
suggested by theory. In particular, we show that our method outperforms
state-of-art methods in challenging, yet more realistic, settings where the
distribution of covariates is heavy-tailed or the sample size is small, while
it remains competitive in standard, ``well behaved" settings previously studied
in the literature.
- Abstract(参考訳): 高次元設定におけるロバストなラッソ型推論のための残差ランダム化手法を提案する。
サブガウジアンエラーに焦点を当てた以前の作業と比較すると、提案手法はヘビーテールのコヴァリエートやエラーを含む設定で頑健に動作するよう設計されている。
さらに,本手法はクラスタ化エラーの下では有効であり,実際は重要であるが,これまでは概ね見過ごされてきた。
広範囲なシミュレーションを通じて,提案手法の適用範囲を理論的に検討した。
特に,本手法は,共変量の分布が重く,サンプルサイズが小さく,従来文献で研究されていた「よく振る舞う」という標準的設定が競争力を保ちながら,挑戦的かつより現実的な設定において,最先端の手法よりも優れることを示す。
関連論文リスト
- A Trust-Region Method for Graphical Stein Variational Inference [3.5516599670943774]
スタイン変分法 (SVI) は、サンプル位置を情報理論尺度に共同最適化してサンプルセットを生成するサンプルベースの近似推論手法である。
本稿では,これらの課題に対処する新しい信頼条件付きアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-21T16:59:01Z) - Bayesian Nonparametrics Meets Data-Driven Distributionally Robust Optimization [29.24821214671497]
機械学習と統計モデルのトレーニングは、しばしばデータ駆動型リスク基準の最適化を伴う。
ベイズ的非パラメトリック(ディリクレ過程)理論と、スムーズなあいまいさ-逆選好の最近の決定論的モデルを組み合わせた、新しいロバストな基準を提案する。
実用的な実装として、よく知られたディリクレプロセスの表現に基づいて、評価基準の抽出可能な近似を提案し、研究する。
論文 参考訳(メタデータ) (2024-01-28T21:19:15Z) - Observation-Guided Diffusion Probabilistic Models [41.749374023639156]
観測誘導拡散確率モデル(OGDM)と呼ばれる新しい拡散に基づく画像生成法を提案する。
本手法は,観測プロセスの指導をマルコフ連鎖と統合することにより,トレーニング目標を再構築する。
本研究では,強力な拡散モデルベースライン上での多様な推論手法を用いたトレーニングアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2023-10-06T06:29:06Z) - Optimizing Hyperparameters with Conformal Quantile Regression [7.316604052864345]
本稿では,観測ノイズについて最小限の仮定を行う等化量子レグレッションを活用することを提案する。
これは経験的ベンチマークでのHPO収束を早くすることを意味する。
論文 参考訳(メタデータ) (2023-05-05T15:33:39Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Distributed Sketching for Randomized Optimization: Exact
Characterization, Concentration and Lower Bounds [54.51566432934556]
我々はヘシアンの形成が困難である問題に対する分散最適化法を検討する。
ランダム化されたスケッチを利用して、問題の次元を減らし、プライバシを保ち、非同期分散システムにおけるストラグラーレジリエンスを改善します。
論文 参考訳(メタデータ) (2022-03-18T05:49:13Z) - Squared $\ell_2$ Norm as Consistency Loss for Leveraging Augmented Data
to Learn Robust and Invariant Representations [76.85274970052762]
元のサンプルと拡張されたサンプルの埋め込み/表現の距離を規則化することは、ニューラルネットワークの堅牢性を改善するための一般的なテクニックである。
本稿では、これらの様々な正規化選択について検討し、埋め込みの正規化方法の理解を深める。
私たちが特定したジェネリックアプローチ(squared $ell$ regularized augmentation)は、それぞれ1つのタスクのために特別に設計されたいくつかの手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-25T22:40:09Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z) - Distributed Averaging Methods for Randomized Second Order Optimization [54.51566432934556]
我々はヘッセン語の形成が計算的に困難であり、通信がボトルネックとなる分散最適化問題を考察する。
我々は、ヘッセンのサンプリングとスケッチを用いたランダム化二階最適化のための非バイアスパラメータ平均化手法を開発した。
また、不均一なコンピューティングシステムのための非バイアス分散最適化フレームワークを導入するために、二階平均化手法のフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-02-16T09:01:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。