論文の概要: Random Machines Regression Approach: an ensemble support vector
regression model with free kernel choice
- arxiv url: http://arxiv.org/abs/2003.12643v1
- Date: Fri, 27 Mar 2020 21:30:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 04:54:48.377668
- Title: Random Machines Regression Approach: an ensemble support vector
regression model with free kernel choice
- Title(参考訳): Random Machines Regression Approach:フリーカーネル選択によるアンサンブル支援ベクトル回帰モデル
- Authors: Anderson Ara, Mateus Maia, Samuel Mac\^edo and Francisco Louzada
- Abstract要約: 本稿では,重み付きサポートベクターモデルを用いて回帰問題を解く手法を提案する。
その結果、チューニングプロセス中に最適なカーネル関数を選択することなく、より低い一般化誤差により回帰ランダムマシンの性能が向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning techniques always aim to reduce the generalized prediction
error. In order to reduce it, ensemble methods present a good approach
combining several models that results in a greater forecasting capacity. The
Random Machines already have been demonstrated as strong technique, i.e: high
predictive power, to classification tasks, in this article we propose an
procedure to use the bagged-weighted support vector model to regression
problems. Simulation studies were realized over artificial datasets, and over
real data benchmarks. The results exhibited a good performance of Regression
Random Machines through lower generalization error without needing to choose
the best kernel function during tuning process.
- Abstract(参考訳): 機械学習技術は常に、一般化された予測誤差を減らすことを目的としている。
これを減らすために、アンサンブル法は、予測能力を高めるために複数のモデルを組み合わせて良いアプローチを示す。
ランダムマシンは既に強力な手法として実証されており、高い予測力、高い分類能力、本論文では、重み付けされたサポートベクターモデルを回帰問題に利用する手順を提案する。
シミュレーション研究は、人工データセットや実際のデータベンチマークで実現された。
その結果、チューニングプロセス中に最適なカーネル関数を選択することなく、より低い一般化誤差により回帰ランダムマシンの性能が向上した。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Efficient and Generalizable Certified Unlearning: A Hessian-free Recollection Approach [8.875278412741695]
機械学習は、特定のデータを選択的に忘れることを可能にして、データ所有者の権利を忘れないように努力する。
我々は,ベクトル加算操作のみを必要とするため,ほぼ瞬時に未学習を実現するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-04-02T07:54:18Z) - Meta-Learning with Generalized Ridge Regression: High-dimensional Asymptotics, Optimality and Hyper-covariance Estimation [14.194212772887699]
本研究では,高次元ランダム効果線形モデルの枠組みにおけるメタラーニングについて考察する。
本研究では,データ次元がタスク毎のサンプル数に比例して大きくなる場合に,新しいテストタスクに対する予測リスクの正確な振る舞いを示す。
トレーニングタスクのデータに基づいて,逆回帰係数を推定する手法を提案し,解析する。
論文 参考訳(メタデータ) (2024-03-27T21:18:43Z) - Model Agnostic Explainable Selective Regression via Uncertainty
Estimation [15.331332191290727]
本稿では,モデルに依存しない非パラメトリック不確実性推定を用いた選択回帰手法を提案する。
提案フレームワークは,最先端の選択的回帰器と比較して優れた性能を示す。
オープンソースPythonパッケージに選択的回帰法を実装し、実験を再現するために使用するコードをリリースする。
論文 参考訳(メタデータ) (2023-11-15T17:40:48Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Latent Gaussian Model Boosting [0.0]
ツリーブースティングは多くのデータセットに対して優れた予測精度を示す。
シミュレーションおよび実世界のデータ実験において,既存の手法と比較して予測精度が向上した。
論文 参考訳(メタデータ) (2021-05-19T07:36:30Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Gaussian Process Boosting [13.162429430481982]
ガウス過程と混合効果モデルを組み合わせた新しい手法を提案する。
シミュレーションおよび実世界のデータセットに対する既存手法と比較して予測精度が向上する。
論文 参考訳(メタデータ) (2020-04-06T13:19:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。