論文の概要: Communication-Efficient Distributed Quantile Regression with Optimal
Statistical Guarantees
- arxiv url: http://arxiv.org/abs/2110.13113v1
- Date: Mon, 25 Oct 2021 17:09:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 17:16:36.332462
- Title: Communication-Efficient Distributed Quantile Regression with Optimal
Statistical Guarantees
- Title(参考訳): 最適統計保証を用いた通信効率の良い分散量子回帰
- Authors: Heather Battey, Kean Ming Tan, and Wen-Xin Zhou
- Abstract要約: 本稿では,分散量子レグレッションにおいて,厳密なスケーリング条件を伴わずに最適な推論を実現する方法の課題に対処する。
この問題は、ローカル(各データソース)とグローバルな目的関数に適用される二重平滑化アプローチによって解決される。
局所的および大域的滑らか化パラメータの微妙な組み合わせに依存するにもかかわらず、量子回帰モデルは完全にパラメトリックである。
- 参考スコア(独自算出の注目度): 2.064612766965483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of how to achieve optimal inference in distributed
quantile regression without stringent scaling conditions. This is challenging
due to the non-smooth nature of the quantile regression loss function, which
invalidates the use of existing methodology. The difficulties are resolved
through a double-smoothing approach that is applied to the local (at each data
source) and global objective functions. Despite the reliance on a delicate
combination of local and global smoothing parameters, the quantile regression
model is fully parametric, thereby facilitating interpretation. In the
low-dimensional regime, we discuss and compare several alternative confidence
set constructions, based on inversion of Wald and score-type tests and
resam-pling techniques, detailing an improvement that is effective for more
extreme quantile coefficients. In high dimensions, a sparse framework is
adopted, where the proposed doubly-smoothed objective function is complemented
with an $\ell_1$-penalty. A thorough simulation study further elucidates our
findings. Finally, we provide estimation theory and numerical studies for
sparse quantile regression in the high-dimensional setting.
- Abstract(参考訳): 本稿では,厳密なスケーリング条件を伴わずに,分散分位数回帰における最適推論を実現する方法について論じる。
これは、既存の方法論の使用を無効にする量子回帰損失関数の非滑らかな性質のため、難しい。
この問題は、ローカル(各データソース)とグローバルな目的関数に適用される二重平滑化アプローチによって解決される。
局所的および大域的滑らか化パラメータの微妙な組み合わせに依存するにもかかわらず、量子回帰モデルは完全にパラメトリックであり、解釈を容易にする。
低次元のシステムでは、ウォルドの反転とスコア型テストとresam-pling法に基づいて、いくつかの代替信頼度集合の構成を議論・比較し、より極端な量子化係数に有効である改善を詳述する。
高次元ではスパースフレームワークが採用され、提案された2倍の目的関数は$\ell_1$-penaltyで補完される。
詳細なシミュレーション研究が我々の発見をさらに解明している。
最後に,高次元環境における分散分位回帰に対する推定理論と数値的研究を行った。
関連論文リスト
- Bayesian Quantile Regression with Subset Selection: A Posterior
Summarization Perspective [0.0]
既存の方法では、興味のある各量に対して個別に条件量子を推定するか、半パラメトリックモデルまたは非パラメトリックモデルを用いて条件分布全体を推定する。
本研究では,線形定量推定,不確実性定量化,およびベイズ決定解析の観点からのサブセット選択の基本的問題を提起する。
提案手法では,量子に焦点をあてた2乗誤差損失を導入し,効率的な閉形式計算を実現し,ワッサーシュタインに基づく密度推定との密接な関係を維持する。
論文 参考訳(メタデータ) (2023-11-03T17:19:31Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Errors-in-variables Fr\'echet Regression with Low-rank Covariate
Approximation [2.1756081703276]
Fr'echet回帰は、非ユークリッド応答変数を含む回帰分析のための有望なアプローチとして登場した。
提案手法は,大域的Fr'echet回帰と主成分回帰の概念を組み合わせて,回帰推定器の効率と精度を向上させることを目的とする。
論文 参考訳(メタデータ) (2023-05-16T08:37:54Z) - Distributed Estimation and Inference for Semi-parametric Binary Response
Models [10.719978332351621]
本稿では,分散コンピューティング環境下での半パラメトリック二値選択モデルの最大スコア推定について検討する。
直感的な分割・対数推定器は計算コストが高く、機械数に対する非正規制約によって制限される。
論文 参考訳(メタデータ) (2022-10-15T23:06:46Z) - Random Forest Weighted Local Fr\'echet Regression with Random Objects [52.25304029942005]
本稿では,新しいランダム森林重み付き局所Fr'echet回帰パラダイムを提案する。
最初の方法は,これらの重みを局所平均として利用し,条件付きFr'echet平均を解く。
第二の手法は局所線形Fr'echet回帰を行い、どちらも既存のFr'echet回帰法を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-10T09:10:59Z) - Semi-Supervised Quantile Estimation: Robust and Efficient Inference in
High Dimensional Settings [0.07031569227782805]
2つの利用可能なデータセットを特徴とする半教師付き環境での量子推定を考察する。
本稿では,2つのデータセットに基づいて,応答量子化(s)に対する半教師付き推定器群を提案する。
論文 参考訳(メタデータ) (2022-01-25T10:02:23Z) - Convex Latent Effect Logit Model via Sparse and Low-rank Decomposition [2.1915057426589746]
本稿では,ロジスティック回帰モデル(logit)を学習するための凸パラメトリック凸パラメトリック定式化を提案する。
その人気にもかかわらず、個別の不均一性を学ぶための混合ロジットアプローチにはいくつかの欠点がある。
論文 参考訳(メタデータ) (2021-08-22T22:23:39Z) - Near-Optimal High Probability Complexity Bounds for Non-Smooth
Stochastic Optimization with Heavy-Tailed Noise [63.304196997102494]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
既存の非滑らか凸最適化法は、負のパワーまたは対数的な信頼度に依存する境界の複雑さを持つ。
クリッピングを用いた2つの勾配法に対して, 新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Flexible Model Aggregation for Quantile Regression [92.63075261170302]
量子回帰は、予測の不確実性を定量化する必要性によって動機付けられた統計学習の基本的な問題である。
条件付き量子モデルの任意の数を集約する手法について検討する。
この論文で検討するモデルはすべて、現代のディープラーニングツールキットに適合します。
論文 参考訳(メタデータ) (2021-02-26T23:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。