論文の概要: Maximum Correntropy Criterion Regression models with tending-to-zero
scale parameters
- arxiv url: http://arxiv.org/abs/2110.12751v1
- Date: Mon, 25 Oct 2021 09:24:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 14:41:18.140953
- Title: Maximum Correntropy Criterion Regression models with tending-to-zero
scale parameters
- Title(参考訳): テンディング・トゥ・ゼロ・スケールパラメータを用いた最大コレントロピー基準回帰モデル
- Authors: Ying Jing, Lianqiang Yang
- Abstract要約: MCCRモデルの最適学習レートが$mathcalO(n-1)$であることが明らかとなった。
有限サンプルの場合, MCCR, Huber, および最小2乗回帰モデルのロバスト性に関する性能を比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Maximum correntropy criterion regression (MCCR) models have been well studied
within the frame of statistical learning when the scale parameters take fixed
values or go to infinity. This paper studies the MCCR models with
tending-to-zero scale parameters. It is revealed that the optimal learning rate
of MCCR models is ${\mathcal{O}}(n^{-1})$ in the asymptotic sense when the
sample size $n$ goes to infinity. In the case of finite samples, the
performances on robustness of MCCR, Huber and the least square regression
models are compared. The applications of these three methods on real data are
also displayed.
- Abstract(参考訳): 最大コレントロピー基準回帰(MCCR)モデルは、スケールパラメータが固定値を取るか無限大に進むとき、統計的学習の枠組みの中でよく研究されている。
本稿では,MCCRモデルと傾向-ゼロスケールパラメータについて検討する。
mccrモデルの最適学習速度は、サンプルサイズ$n$が無限大になると漸近的な意味で${\mathcal{o}}(n^{-1})$であることが判明した。
有限サンプルの場合, MCCR, Huber, および最小2乗回帰モデルのロバスト性に関する性能を比較する。
実データに対するこれら3つの方法の応用も表示される。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - A Unified Approach to Learning Ising Models: Beyond Independence and
Bounded Width [7.605563562103568]
我々はIsingモデルの基本パラメータをデータから効率的に学習する問題を再考する。
ノード単位のロジスティック回帰に基づく単純な既存手法が、いくつかの新しい設定で基盤モデルの回復に成功していることを示す。
論文 参考訳(メタデータ) (2023-11-15T18:41:19Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Learning to Bound: A Generative Cram\'er-Rao Bound [25.739449801033846]
データ駆動手法を用いてクラムラーラオ境界(CRB)を近似する新しい手法を提案する。
我々は測定値の分布をモデル化し、GCRB(Generative Cram'er-Rao Bound)と呼ばれるCRBの近似を得る。
論文 参考訳(メタデータ) (2022-03-07T20:31:53Z) - Exponential Family Model-Based Reinforcement Learning via Score Matching [97.31477125728844]
有限水平表層強化学習(RL)のための楽観的モデルベースアルゴリズムSMRLを提案する。
SMRLは、リッジ回帰によるモデルパラメータの効率的な推定を可能にする非正規化密度推定手法であるスコアマッチングを用いる。
論文 参考訳(メタデータ) (2021-12-28T15:51:07Z) - Scalable Spatiotemporally Varying Coefficient Modelling with Bayesian Kernelized Tensor Regression [17.158289775348063]
カーネル化されたテンソル回帰(BKTR)は、低ランクの時間構造を持つモデリングプロセスに対する新しいスケーラブルなアプローチと考えられる。
そこで本研究では,BKTRのモデル推定と推定において,BKTRの優れた性能と効率性を確認した。
論文 参考訳(メタデータ) (2021-08-31T19:22:23Z) - Support estimation in high-dimensional heteroscedastic mean regression [2.28438857884398]
ランダムな設計と、潜在的にヘテロセダスティックで重み付きエラーを伴う線形平均回帰モデルを考える。
我々は,問題のパラメータに依存するチューニングパラメータを備えた,厳密な凸・滑らかなHuber損失関数の変種を用いる。
得られた推定器に対して、$ell_infty$ノルムにおける符号一貫性と最適収束率を示す。
論文 参考訳(メタデータ) (2020-11-03T09:46:31Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z) - Revisiting minimum description length complexity in overparameterized
models [38.21167656112762]
本稿では,線形モデルとカーネル手法に対するMDL-COMPの広範な理論的特性について述べる。
カーネル法では,MDL-COMPがサンプル内誤差を最小化し,入力の次元が増加するにつれて減少することを示す。
また、MDL-COMPがサンプル内平均二乗誤差(MSE)を束縛していることも証明する。
論文 参考訳(メタデータ) (2020-06-17T22:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。