論文の概要: Robust priors for regularized regression
- arxiv url: http://arxiv.org/abs/2010.02610v3
- Date: Mon, 25 Oct 2021 13:05:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 05:43:51.206562
- Title: Robust priors for regularized regression
- Title(参考訳): 正規化回帰に対するロバスト先行
- Authors: Sebastian Bobadilla-Suarez, Matt Jones, Bradley C. Love
- Abstract要約: 尾根回帰のような罰則化された回帰アプローチは0に向かって縮小するが、0重みは通常は意味のある先行ではない。
人間が使用する単純で堅牢な決定にインスパイアされた私たちは、ペナル化された回帰モデルのための非ゼロの事前計算を構築しました。
頑丈な先行モデルでは、最悪のパフォーマンスに優れていた。
- 参考スコア(独自算出の注目度): 12.945710636153537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Induction benefits from useful priors. Penalized regression approaches, like
ridge regression, shrink weights toward zero but zero association is usually
not a sensible prior. Inspired by simple and robust decision heuristics humans
use, we constructed non-zero priors for penalized regression models that
provide robust and interpretable solutions across several tasks. Our approach
enables estimates from a constrained model to serve as a prior for a more
general model, yielding a principled way to interpolate between models of
differing complexity. We successfully applied this approach to a number of
decision and classification problems, as well as analyzing simulated brain
imaging data. Models with robust priors had excellent worst-case performance.
Solutions followed from the form of the heuristic that was used to derive the
prior. These new algorithms can serve applications in data analysis and machine
learning, as well as help in understanding how people transition from novice to
expert performance.
- Abstract(参考訳): 有益な先駆者から利益を得る。
リッジ回帰のようなペナルテッド回帰アプローチは、重みをゼロに縮小するが、ゼロ結合は通常、賢明な優先ではない。
人間が使用するシンプルでロバストな決定ヒューリスティックに触発されて、いくつかのタスクにまたがって堅牢で解釈可能なソリューションを提供するペナルタライズド回帰モデルのための非ゼロプライオリティを構築しました。
我々のアプローチは、制約されたモデルからの見積もりがより一般的なモデルの先行として機能し、異なる複雑性のモデル間で補間する原則的な方法をもたらす。
我々はこの手法を多くの決定・分類問題に応用し,シミュレーション脳画像データの解析に応用した。
頑丈な先行モデルでは、最悪のパフォーマンスに優れていた。
解は、前者を導出するために用いられたヒューリスティックの形式から導かれる。
これらの新しいアルゴリズムは、データ分析と機械学習のアプリケーションに役立つだけでなく、人々が初心者からエキスパートのパフォーマンスへどのように移行するかを理解するのに役立つ。
関連論文リスト
- Comparative study of regression vs pairwise models for surrogate-based heuristic optimisation [1.2535250082638645]
本稿では, シュロゲート問題の定式化を, 適合度を近似する回帰モデル(表面シュロゲートモデル)と, 分類モデル(ペアワイズ・シュロゲートモデル)を結合する新しい方法の両方として扱う。
オンライン機械学習に基づくサロゲートモデルを用いる場合の全体探索の性能は、予測モデルの精度だけでなく、正または負のケースに対するバイアスの種類にも依存する。
論文 参考訳(メタデータ) (2024-10-04T13:19:06Z) - Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,リトレーニングを繰り返して安定なモデル列を見つけるためのモデルに依存しないフレームワークを提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
平均的に、予測力の2%の低下は、安定性の30%の改善につながることが判明した。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - ZeroShape: Regression-based Zero-shot Shape Reconstruction [56.652766763775226]
単一画像ゼロショット3次元形状再構成の問題点について検討する。
最近の研究は、3Dアセットの生成的モデリングを通してゼロショット形状復元を学習している。
我々はZeroShapeが最先端の手法よりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-12-21T01:56:34Z) - A Bayesian Robust Regression Method for Corrupted Data Reconstruction [5.298637115178182]
我々は適応的敵攻撃に抵抗できる効果的なロバスト回帰法を開発した。
まず TRIP (hard Thresholding approach to Robust regression with sImple Prior) アルゴリズムを提案する。
次に、より堅牢なBRHT (robust Bayesian Reweighting regression via Hard Thresholding) アルゴリズムを構築するためにベイズ再重み付け(Bayesian reweighting)というアイデアを用いる。
論文 参考訳(メタデータ) (2022-12-24T17:25:53Z) - Mutual Information Learned Regressor: an Information-theoretic Viewpoint
of Training Regression Systems [10.314518385506007]
回帰問題を解くための既存の慣習は平均二乗誤差(MSE)最小化アプローチである。
近年,Yiらは相互情報に基づく教師あり学習フレームワークを提案し,ラベルエントロピー正規化を導入した。
本稿では,相互情報に基づく教師あり学習フレームワークにおける回帰について検討する。
論文 参考訳(メタデータ) (2022-11-23T03:43:22Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Personalizing Performance Regression Models to Black-Box Optimization
Problems [0.755972004983746]
本研究では,数値最適化問題に対するパーソナライズされた回帰手法を提案する。
また、問題毎に1つの回帰モデルを選択するのではなく、パーソナライズされたアンサンブルを選択することの影響についても検討する。
本稿では,BBOBベンチマークコレクション上での数値最適化性能の予測について検討する。
論文 参考訳(メタデータ) (2021-04-22T11:47:47Z) - Continual Learning using a Bayesian Nonparametric Dictionary of Weight
Factors [75.58555462743585]
訓練されたニューラルネットワークは、シーケンシャルなタスク設定で破滅的な忘れを経験する傾向がある。
Indian Buffet Process (IBP) に基づく原則的非パラメトリック手法を提案する。
連続学習ベンチマークにおける本手法の有効性を実証し、トレーニングを通して重み要因の配分と再利用方法を分析する。
論文 参考訳(メタデータ) (2020-04-21T15:20:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。