論文の概要: Boosting Ridge Regression for High Dimensional Data Classification
- arxiv url: http://arxiv.org/abs/2003.11283v1
- Date: Wed, 25 Mar 2020 09:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:48:12.202991
- Title: Boosting Ridge Regression for High Dimensional Data Classification
- Title(参考訳): 高次元データ分類のためのブースティングリッジ回帰
- Authors: Jakramate Bootkrajang
- Abstract要約: リッジ回帰は、分類問題に適応できるよく確立された回帰推定器である。
正規化共分散行列の逆変換を含む閉形式解は計算にかなり費用がかかる。
本稿では、各回帰器がランダムに投影された部分空間で訓練されるリッジ回帰器のアンサンブルを学習することを検討する。
- 参考スコア(独自算出の注目度): 0.8223798883838329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ridge regression is a well established regression estimator which can
conveniently be adapted for classification problems. One compelling reason is
probably the fact that ridge regression emits a closed-form solution thereby
facilitating the training phase. However in the case of high-dimensional
problems, the closed-form solution which involves inverting the regularised
covariance matrix is rather expensive to compute. The high computational demand
of such operation also renders difficulty in constructing ensemble of ridge
regressions. In this paper, we consider learning an ensemble of ridge
regressors where each regressor is trained in its own randomly projected
subspace. Subspace regressors are later combined via adaptive boosting
methodology. Experiments based on five high-dimensional classification problems
demonstrated the effectiveness of the proposed method in terms of learning time
and in some cases improved predictive performance can be observed.
- Abstract(参考訳): リッジ回帰は分類問題に適用できるよく確立された回帰推定器である。
説得力のある理由の1つは、リッジ回帰が閉形式解を放出し、トレーニングフェーズが容易であるという事実である。
しかし、高次元問題の場合、正規化共分散行列の反転を伴う閉形式解は計算にかなり費用がかかる。
このような演算の高い計算要求は、リッジ回帰のアンサンブルを構築することの難しさも引き起こす。
本稿では、各回帰器がランダムに投影された部分空間で訓練されるリッジ回帰器のアンサンブルを学習することを検討する。
サブスペースレグレッサーは後に適応ブースティング手法によって結合される。
5つの高次元分類問題に基づく実験は、学習時間の観点から提案手法の有効性を実証し、場合によっては予測性能が向上することを示した。
関連論文リスト
- Efficient Optimization Algorithms for Linear Adversarial Training [9.933836677441684]
逆行訓練は摂動に対して堅牢なモデルを学ぶのに使える。
本稿では,線形モデルの対数学習のための最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-16T15:41:08Z) - Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Adaptive Optimization for Prediction with Missing Data [6.800113478497425]
適応線形回帰モデルの中には,命令規則と下流線形回帰モデルを同時に学習するのと等価なものもある。
ランダムにデータの欠落が強くない環境では,本手法はサンプル外精度を2~10%向上させる。
論文 参考訳(メタデータ) (2024-02-02T16:35:51Z) - Streaming Active Learning for Regression Problems Using Regression via
Classification [12.572218568705376]
本稿では,回帰学習のためのストリーミング能動学習にレグレッション・ウィズ・クラス化フレームワークを用いることを提案する。
レグレッション・ウィズ・クラス化は回帰問題を分類問題に変換し、ストリーミング能動学習法を回帰問題に直接適用できるようにする。
論文 参考訳(メタデータ) (2023-09-02T20:24:24Z) - Engression: Extrapolation through the Lens of Distributional Regression [2.519266955671697]
我々は、エングレースと呼ばれるニューラルネットワークに基づく分布回帰手法を提案する。
エングレスモデル(engression model)は、適合した条件分布からサンプリングできるという意味で生成され、高次元結果にも適している。
一方、最小二乗法や量子回帰法のような従来の回帰手法は、同じ仮定の下では不十分である。
論文 参考訳(メタデータ) (2023-07-03T08:19:00Z) - Correcting for Selection Bias and Missing Response in Regression using
Privileged Information [1.5049442691806052]
本稿では,Privilegedly Missing at Random(PMAR)に適した繰り返し回帰法を提案する。
提案手法の性能をシミュレーション実験により実証的に評価し,実世界のデータセットを合成的に拡張した。
論文 参考訳(メタデータ) (2023-03-29T15:42:17Z) - Matrix Completion via Non-Convex Relaxation and Adaptive Correlation
Learning [90.8576971748142]
閉形式解によって最適化できる新しいサロゲートを開発する。
そこで我々は, 上向きの相関関係を利用して, 適応的相関学習モデルを構築した。
論文 参考訳(メタデータ) (2022-03-04T08:50:50Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - A Hypergradient Approach to Robust Regression without Correspondence [85.49775273716503]
本稿では,入力データと出力データとの対応が不十分な回帰問題について考察する。
ほとんどの既存手法はサンプルサイズが小さい場合にのみ適用できる。
シャッフル回帰問題に対する新しい計算フレームワークであるROBOTを提案する。
論文 参考訳(メタデータ) (2020-11-30T21:47:38Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。