論文の概要: Conditional Linear Regression for Heterogeneous Covariances
- arxiv url: http://arxiv.org/abs/2111.07834v1
- Date: Mon, 15 Nov 2021 15:22:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 14:58:27.059059
- Title: Conditional Linear Regression for Heterogeneous Covariances
- Title(参考訳): 不均一な共分散に対する条件線形回帰
- Authors: Brendan Juba, Leda Liang
- Abstract要約: Inlier は Disjunctive Normal Form (DNF) 式で識別できる。
条件付き線形回帰タスクの時間アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 29.65897838199101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Often machine learning and statistical models will attempt to describe the
majority of the data. However, there may be situations where only a fraction of
the data can be fit well by a linear regression model. Here, we are interested
in a case where such inliers can be identified by a Disjunctive Normal Form
(DNF) formula. We give a polynomial time algorithm for the conditional linear
regression task, which identifies a DNF condition together with the linear
predictor on the corresponding portion of the data. In this work, we improve on
previous algorithms by removing a requirement that the covariances of the data
satisfying each of the terms of the condition have to all be very similar in
spectral norm to the covariance of the overall condition.
- Abstract(参考訳): 多くの場合、機械学習と統計モデルはデータの大半を記述しようとする。
しかし、データの一部だけが線形回帰モデルによってうまく適合できる状況があるかもしれない。
ここでは、そのような不等式をDNF(Disjunctive Normal Form)公式で特定できる場合に関心がある。
本稿では,条件付き線形回帰タスクの多項式時間アルゴリズムを提案し,それに対応する部分について線形予測器と共にdnf条件を同定する。
本研究では,各条件を満たすデータの共分散が,全条件の共分散とスペクトルノルムにおいて非常によく似ていることの要件を除去することにより,従来のアルゴリズムの改善を行う。
関連論文リスト
- Adaptive Optimization for Prediction with Missing Data [6.800113478497425]
適応線形回帰モデルの中には,命令規則と下流線形回帰モデルを同時に学習するのと等価なものもある。
ランダムにデータの欠落が強くない環境では,本手法はサンプル外精度を2~10%向上させる。
論文 参考訳(メタデータ) (2024-02-02T16:35:51Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Generalised Bayesian Inference for Discrete Intractable Likelihood [9.331721990371769]
本稿では、離散的難易度に適した新しい一般化されたベイズ推論手法を開発する。
連続データに対する最近の方法論的な進歩にインスパイアされた主なアイデアは、離散的なフィッシャー分岐を用いてモデルパラメータに関する信念を更新することである。
結果は一般化された後部であり、マルコフ・モンテカルロのような標準的な計算ツールからサンプリングすることができる。
論文 参考訳(メタデータ) (2022-06-16T19:36:17Z) - Towards Data-Algorithm Dependent Generalization: a Case Study on
Overparameterized Linear Regression [19.047997113063147]
本稿では,データ依存学習軌跡全体の一般化挙動を考察したデータ-アルゴリズム整合性の概念を提案する。
我々は、データ依存軌道解析を行い、そのような環境での互換性に十分な条件を導出する。
論文 参考訳(メタデータ) (2022-02-12T12:42:36Z) - Conjugate priors for count and rounded data regression [0.0]
閉形式後部推論を可能にする共役前部を導入する。
主要な後続関数と予測関数は計算可能であり、直接モンテカルロシミュレーションによって計算可能である。
これらのツールは、線形回帰、基底展開による非線形モデル、モデルと変数選択に広く有用である。
論文 参考訳(メタデータ) (2021-10-23T23:26:01Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Topological regularization with information filtering networks [0.0]
学生tを用いたスパースモデリングの応用について詳述する。
株価の対価の対価と人工的に生成されたデータの実際のデータによる例は、この方法論の適用性、性能、ポテンシャルを示している。
論文 参考訳(メタデータ) (2020-05-10T15:15:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。