論文の概要: Risk bounds when learning infinitely many response functions by ordinary
linear regression
- arxiv url: http://arxiv.org/abs/2006.09223v3
- Date: Sat, 27 Nov 2021 15:07:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 20:13:05.349214
- Title: Risk bounds when learning infinitely many response functions by ordinary
linear regression
- Title(参考訳): 線形回帰による無限個の応答関数の学習におけるリスク境界
- Authors: Vincent Plassier, Fran\c{c}ois Portier, Johan Segers
- Abstract要約: トレーニングデータは、共通の分布から引き出された入力変数の1つの独立したランダムサンプルと、関連する応答から構成される。
応答関数における過剰リスクの収束率を均一に制御することにより、最悪の場合の過剰予測リスクに対する収束保証を提供する。
応答関数の集まりは、潜在的に無限であるが、有限のヴァプニク・チェルヴォネンキス次元を持つ。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consider the problem of learning a large number of response functions
simultaneously based on the same input variables. The training data consist of
a single independent random sample of the input variables drawn from a common
distribution together with the associated responses. The input variables are
mapped into a high-dimensional linear space, called the feature space, and the
response functions are modelled as linear functionals of the mapped features,
with coefficients calibrated via ordinary least squares. We provide convergence
guarantees on the worst-case excess prediction risk by controlling the
convergence rate of the excess risk uniformly in the response function. The
dimension of the feature map is allowed to tend to infinity with the sample
size. The collection of response functions, although potentially infinite, is
supposed to have a finite Vapnik-Chervonenkis dimension. The bound derived can
be applied when building multiple surrogate models in a reasonable computing
time.
- Abstract(参考訳): 同じ入力変数に基づいて多数の応答関数を同時に学習する問題を考える。
トレーニングデータは、共通の分布から引き出された入力変数の1つの独立したランダムサンプルと、関連する応答からなる。
入力変数は特徴空間と呼ばれる高次元線型空間に写像され、応答関数は写像された特徴の線型汎函数としてモデル化され、係数は通常の最小二乗によって調整される。
応答関数における過剰リスクの収束率を均一に制御することにより、最悪の場合の過剰予測リスクに対する収束保証を提供する。
特徴写像の次元は標本サイズと無限大になる傾向がある。
応答関数の集合は無限の可能性があるが、有限のvapnik-chervonenkis次元を持つ。
有界導出は、合理的な計算時間で複数の代理モデルを構築する際に応用できる。
関連論文リスト
- Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Inference on Strongly Identified Functionals of Weakly Identified
Functions [71.42652863687117]
本研究では,ニュアンス関数が存在しない場合でも,関数を強く識別するための新しい条件について検討する。
本稿では,プライマリおよびデバイアスのニュアンス関数に対するペナル化ミニマックス推定器を提案する。
論文 参考訳(メタデータ) (2022-08-17T13:38:31Z) - Dealing with collinearity in large-scale linear system identification
using Bayesian regularization [3.04585143845864]
出力が多くの相関入力の結果である可能性のある大規模線形系と安定系の同定を考察する。
我々は、任意のインパルス応答をゼロ平均ガウス過程の実現としてモデル化するベイズ正規化に基づく戦略を開発する。
次に、コリニアリティに対処し、インパルス応答の後方を効率的に再構築できる新しいマルコフ連鎖モンテカルロスキームを設計する。
論文 参考訳(メタデータ) (2022-03-25T13:11:26Z) - The SKIM-FA Kernel: High-Dimensional Variable Selection and Nonlinear
Interaction Discovery in Linear Time [26.11563787525079]
変数選択と推定の両方において、カーネルのトリックが適切なベイズモデルによる計算をO(#共変量)時間に還元する方法を示す。
提案手法は,大規模で高次元なデータセットの既存の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-23T13:53:36Z) - Multivariate Probabilistic Regression with Natural Gradient Boosting [63.58097881421937]
多変量予測分布の条件パラメータを非パラメトリックにモデル化したNatural Gradient Boosting (NGBoost) 手法を提案する。
提案手法は頑健で, 広範囲なチューニングを伴わず, 推定対象分布に対してモジュール構造であり, 既存の手法と比較して競争力がある。
論文 参考訳(メタデータ) (2021-06-07T17:44:49Z) - Root-finding Approaches for Computing Conformal Prediction Set [18.405645120971496]
共形予測は、以前の同一分布および交換可能な観測に基づいて、特徴ベクトルの未観測応答に対する信頼領域を構築する。
我々は,共形予測集合が古典的ルートフィンディングソフトウェアによって効率的に近似できる区間であるという事実を活用する。
論文 参考訳(メタデータ) (2021-04-14T06:41:12Z) - Nonlinear Distribution Regression for Remote Sensing Applications [6.664736150040092]
多くのリモートセンシングアプリケーションでは、観察から関心のある変数やパラメータを推定したい。
ニューラルネットワーク、ランダムフォレスト、ガウス過程などの標準アルゴリズムは、これら2つに関連して容易に利用可能である。
本稿では, グループ化されたデータの統計を仮定することなく, 従来の問題を解く非線形(カーネルベース)な分散回帰法を提案する。
論文 参考訳(メタデータ) (2020-12-07T22:04:43Z) - A Hypergradient Approach to Robust Regression without Correspondence [85.49775273716503]
本稿では,入力データと出力データとの対応が不十分な回帰問題について考察する。
ほとんどの既存手法はサンプルサイズが小さい場合にのみ適用できる。
シャッフル回帰問題に対する新しい計算フレームワークであるROBOTを提案する。
論文 参考訳(メタデータ) (2020-11-30T21:47:38Z) - Random Sampling High Dimensional Model Representation Gaussian Process
Regression (RS-HDMR-GPR) for representing multidimensional functions with
machine-learned lower-dimensional terms allowing insight with a general
method [0.0]
RS-HDMR-GPR(Random Smpling High-dimensional Model Representation Gaussian Process Regression)のためのPython実装
コードにより、変数の欠落した値を計算し、HDMR項の有用な数を大幅に減らすことができる。
この回帰ツールの能力は、合成分析機能、水分子のポテンシャルエネルギー表面、物質の運動エネルギー密度、金融市場データを含む試験ケースで実証される。
論文 参考訳(メタデータ) (2020-11-24T00:12:05Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - Spatially Adaptive Inference with Stochastic Feature Sampling and
Interpolation [72.40827239394565]
スパースサンプリングされた場所のみの機能を計算することを提案する。
次に、効率的な手順で特徴写像を密に再構築する。
提案したネットワークは、様々なコンピュータビジョンタスクの精度を維持しながら、かなりの計算を省くために実験的に示されている。
論文 参考訳(メタデータ) (2020-03-19T15:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。