論文の概要: Risk bounds when learning infinitely many response functions by ordinary
linear regression
- arxiv url: http://arxiv.org/abs/2006.09223v3
- Date: Sat, 27 Nov 2021 15:07:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 20:13:05.349214
- Title: Risk bounds when learning infinitely many response functions by ordinary
linear regression
- Title(参考訳): 線形回帰による無限個の応答関数の学習におけるリスク境界
- Authors: Vincent Plassier, Fran\c{c}ois Portier, Johan Segers
- Abstract要約: トレーニングデータは、共通の分布から引き出された入力変数の1つの独立したランダムサンプルと、関連する応答から構成される。
応答関数における過剰リスクの収束率を均一に制御することにより、最悪の場合の過剰予測リスクに対する収束保証を提供する。
応答関数の集まりは、潜在的に無限であるが、有限のヴァプニク・チェルヴォネンキス次元を持つ。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consider the problem of learning a large number of response functions
simultaneously based on the same input variables. The training data consist of
a single independent random sample of the input variables drawn from a common
distribution together with the associated responses. The input variables are
mapped into a high-dimensional linear space, called the feature space, and the
response functions are modelled as linear functionals of the mapped features,
with coefficients calibrated via ordinary least squares. We provide convergence
guarantees on the worst-case excess prediction risk by controlling the
convergence rate of the excess risk uniformly in the response function. The
dimension of the feature map is allowed to tend to infinity with the sample
size. The collection of response functions, although potentially infinite, is
supposed to have a finite Vapnik-Chervonenkis dimension. The bound derived can
be applied when building multiple surrogate models in a reasonable computing
time.
- Abstract(参考訳): 同じ入力変数に基づいて多数の応答関数を同時に学習する問題を考える。
トレーニングデータは、共通の分布から引き出された入力変数の1つの独立したランダムサンプルと、関連する応答からなる。
入力変数は特徴空間と呼ばれる高次元線型空間に写像され、応答関数は写像された特徴の線型汎函数としてモデル化され、係数は通常の最小二乗によって調整される。
応答関数における過剰リスクの収束率を均一に制御することにより、最悪の場合の過剰予測リスクに対する収束保証を提供する。
特徴写像の次元は標本サイズと無限大になる傾向がある。
応答関数の集合は無限の可能性があるが、有限のvapnik-chervonenkis次元を持つ。
有界導出は、合理的な計算時間で複数の代理モデルを構築する際に応用できる。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Horizon-Free Regret for Linear Markov Decision Processes [92.02082223856479]
最近の一連の研究は、強化学習における残念な境界が(ほぼ)計画的地平から独立していることを示している。
我々は、人気のある線形マルコフ決定過程(MDP)設定に対して、最初の地平面自由境界を与える。
遷移モデルを明示的に推定し、不均一な値関数を計算する先行研究とは対照的に、直接値関数と信頼集合を推定する。
論文 参考訳(メタデータ) (2024-03-15T23:50:58Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Inference on Strongly Identified Functionals of Weakly Identified
Functions [71.42652863687117]
本研究では,ニュアンス関数が存在しない場合でも,関数を強く識別するための新しい条件について検討する。
本稿では,プライマリおよびデバイアスのニュアンス関数に対するペナル化ミニマックス推定器を提案する。
論文 参考訳(メタデータ) (2022-08-17T13:38:31Z) - Dealing with collinearity in large-scale linear system identification
using Bayesian regularization [3.04585143845864]
出力が多くの相関入力の結果である可能性のある大規模線形系と安定系の同定を考察する。
我々は、任意のインパルス応答をゼロ平均ガウス過程の実現としてモデル化するベイズ正規化に基づく戦略を開発する。
次に、コリニアリティに対処し、インパルス応答の後方を効率的に再構築できる新しいマルコフ連鎖モンテカルロスキームを設計する。
論文 参考訳(メタデータ) (2022-03-25T13:11:26Z) - The SKIM-FA Kernel: High-Dimensional Variable Selection and Nonlinear
Interaction Discovery in Linear Time [26.11563787525079]
変数選択と推定の両方において、カーネルのトリックが適切なベイズモデルによる計算をO(#共変量)時間に還元する方法を示す。
提案手法は,大規模で高次元なデータセットの既存の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-23T13:53:36Z) - Root-finding Approaches for Computing Conformal Prediction Set [18.405645120971496]
共形予測は、以前の同一分布および交換可能な観測に基づいて、特徴ベクトルの未観測応答に対する信頼領域を構築する。
我々は,共形予測集合が古典的ルートフィンディングソフトウェアによって効率的に近似できる区間であるという事実を活用する。
論文 参考訳(メタデータ) (2021-04-14T06:41:12Z) - Nonlinear Distribution Regression for Remote Sensing Applications [6.664736150040092]
多くのリモートセンシングアプリケーションでは、観察から関心のある変数やパラメータを推定したい。
ニューラルネットワーク、ランダムフォレスト、ガウス過程などの標準アルゴリズムは、これら2つに関連して容易に利用可能である。
本稿では, グループ化されたデータの統計を仮定することなく, 従来の問題を解く非線形(カーネルベース)な分散回帰法を提案する。
論文 参考訳(メタデータ) (2020-12-07T22:04:43Z) - Random Sampling High Dimensional Model Representation Gaussian Process
Regression (RS-HDMR-GPR) for representing multidimensional functions with
machine-learned lower-dimensional terms allowing insight with a general
method [0.0]
RS-HDMR-GPR(Random Smpling High-dimensional Model Representation Gaussian Process Regression)のためのPython実装
コードにより、変数の欠落した値を計算し、HDMR項の有用な数を大幅に減らすことができる。
この回帰ツールの能力は、合成分析機能、水分子のポテンシャルエネルギー表面、物質の運動エネルギー密度、金融市場データを含む試験ケースで実証される。
論文 参考訳(メタデータ) (2020-11-24T00:12:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。