論文の概要: Linear regression with partially mismatched data: local search with
theoretical guarantees
- arxiv url: http://arxiv.org/abs/2106.02175v1
- Date: Thu, 3 Jun 2021 23:32:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-06-08 17:38:56.645121
- Title: Linear regression with partially mismatched data: local search with
theoretical guarantees
- Title(参考訳): 部分的不整合データを用いた線形回帰:理論的保証を伴う局所探索
- Authors: Rahul Mazumder, Haoyue Wang
- Abstract要約: 本稿では,予測と応答のペアが部分的に一致しない線形回帰の重要な変種について検討する。
最適化定式化を用いて、基礎となる回帰係数とミスマッチに対応する置換を同時に学習する。
我々は,局所探索アルゴリズムが線形速度でほぼ最適解に収束することを証明した。
- 参考スコア(独自算出の注目度): 9.398989897176953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear regression is a fundamental modeling tool in statistics and related
fields. In this paper, we study an important variant of linear regression in
which the predictor-response pairs are partially mismatched. We use an
optimization formulation to simultaneously learn the underlying regression
coefficients and the permutation corresponding to the mismatches. The
combinatorial structure of the problem leads to computational challenges. We
propose and study a simple greedy local search algorithm for this optimization
problem that enjoys strong theoretical guarantees and appealing computational
performance. We prove that under a suitable scaling of the number of mismatched
pairs compared to the number of samples and features, and certain assumptions
on problem data; our local search algorithm converges to a nearly-optimal
solution at a linear rate. In particular, in the noiseless case, our algorithm
converges to the global optimal solution with a linear convergence rate. We
also propose an approximate local search step that allows us to scale our
approach to much larger instances. We conduct numerical experiments to gather
further insights into our theoretical results and show promising performance
gains compared to existing approaches.
- Abstract(参考訳): 線形回帰は統計学および関連分野における基本的なモデリングツールである。
本稿では,予測子応答対が部分的に不一致している線形回帰の重要な変種について検討する。
最適化定式化を用いて, 基礎となる回帰係数と不一致に対応する順列を同時に学習する。
この問題の組合せ構造は計算上の問題を引き起こす。
本稿では,この最適化問題に対して,強力な理論的保証と計算性能を満足する簡単な局所探索アルゴリズムを提案し,検討する。
提案手法は,サンプル数,特徴数,問題データに対する仮定に比較して整合性のあるペアの数を適切にスケーリングし,局所探索アルゴリズムが線形速度でほぼ最適解に収束することを証明する。
特にノイズレスの場合、我々のアルゴリズムは線形収束率で大域最適解に収束する。
また、より大規模なインスタンスにアプローチをスケールできるような、近似的な局所探索手順も提案する。
理論的結果のさらなる洞察を得るために数値実験を行い,既存手法と比較して有望な性能向上を示す。
関連論文リスト
- Stochastic Optimization Algorithms for Instrumental Variable Regression with Streaming Data [17.657917523817243]
この問題を条件付き最適化問題とみなして,器用変分回帰のためのアルゴリズムを開発し,解析する。
最小二乗変数回帰の文脈では、我々のアルゴリズムは行列逆転やミニバッチを必要としない。
任意の$iota>0$に対して$mathcalO(log T/T)$と$mathcalO(1/T1-iota)$の順の収束率を導出する。
論文 参考訳(メタデータ) (2024-05-29T19:21:55Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Shuffled linear regression through graduated convex relaxation [12.614901374282868]
シャッフル線形回帰問題は、入力と出力の対応が不明なデータセットにおける線形関係を復元することを目的としている。
この問題は、調査データを含む広範囲のアプリケーションで発生する。
後最大化目的関数に基づく線形回帰をシャッフルする新しい最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-30T17:33:48Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Piecewise linear regression and classification [0.20305676256390928]
本稿では,線形予測器を用いた多変量回帰と分類問題の解法を提案する。
本論文で記述されたアルゴリズムのpython実装は、http://cse.lab.imtlucca.it/bemporad/parcで利用可能である。
論文 参考訳(メタデータ) (2021-03-10T17:07:57Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - A spectral algorithm for robust regression with subgaussian rates [0.0]
本研究では, 試料の分布に強い仮定がない場合の線形回帰に対する2次時間に対する新しい線形アルゴリズムについて検討する。
目的は、データが有限モーメントしか持たなくても最適な準ガウス誤差を達成できる手順を設計することである。
論文 参考訳(メタデータ) (2020-07-12T19:33:50Z) - Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression [0.0]
本稿では、収束保証付き非正則正規化器のためのワーキングセットアルゴリズムを提案する。
その結果,ブロックコーディネートや勾配ソルバの完全解法と比較して高い利得を示した。
論文 参考訳(メタデータ) (2020-06-24T07:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。