論文の概要: A PLS-Integrated LASSO Method with Application in Index Tracking
- arxiv url: http://arxiv.org/abs/2511.23205v1
- Date: Fri, 28 Nov 2025 14:12:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.922341
- Title: A PLS-Integrated LASSO Method with Application in Index Tracking
- Title(参考訳): PLS-Integrated LASSO法と指標追跡への応用
- Authors: Shiqin Tang, Yining Dong, S. Joe Qin,
- Abstract要約: 本研究では, PLS-Integrated Lasso (PLS-Lasso) と呼ばれるレグレッション手法を導入する。
PLS-Lasso-v1 と PLS-Lasso-v2 の2つの異なる定式化と,グローバルオプティマへの収束を保証する明確で効果的なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 8.77387600113171
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In traditional multivariate data analysis, dimension reduction and regression have been treated as distinct endeavors. Established techniques such as principal component regression (PCR) and partial least squares (PLS) regression traditionally compute latent components as intermediary steps -- although with different underlying criteria -- before proceeding with the regression analysis. In this paper, we introduce an innovative regression methodology named PLS-integrated Lasso (PLS-Lasso) that integrates the concept of dimension reduction directly into the regression process. We present two distinct formulations for PLS-Lasso, denoted as PLS-Lasso-v1 and PLS-Lasso-v2, along with clear and effective algorithms that ensure convergence to global optima. PLS-Lasso-v1 and PLS-Lasso-v2 are compared with Lasso on the task of financial index tracking and show promising results.
- Abstract(参考訳): 従来の多変量データ解析では、次元の縮小と回帰は異なる試みとして扱われてきた。
プリンシパルコンポーネント回帰(PCR)や部分最小二乗回帰(PLS)のような確立されたテクニックは、回帰分析を進める前に、伝統的に中間的なステップとして潜伏成分を計算します。
本稿では, PLS-integrated Lasso (PLS-Lasso) と呼ばれるレグレッション手法を導入する。
PLS-Lasso-v1 と PLS-Lasso-v2 の2つの異なる定式化と,グローバルオプティマへの収束を保証する明確で効果的なアルゴリズムを提案する。
PLS-Lasso-v1とPLS-Lasso-v2は、金融指標追跡のタスクにおいて、Lassoと比較され、有望な結果を示す。
関連論文リスト
- Towards a Unified Analysis of Neural Networks in Nonparametric Instrumental Variable Regression: Optimization and Generalization [66.08522228989634]
非パラメトリックインスツルメンタル変数回帰(NPIV)における2段階最小二乗法(2SLS)アプローチのためのニューラルネットワークの最初の大域収束結果を確立する。
これは平均場ランゲヴィンダイナミクス(MFLD)を通して持ち上げられた視点を採用することで達成される。
論文 参考訳(メタデータ) (2025-11-18T17:51:17Z) - A Two-Timescale Primal-Dual Framework for Reinforcement Learning via Online Dual Variable Guidance [3.4354636842203026]
正規化マルコフ決定過程(MDP)の解法としてPGDA-RLを提案する。
PGDA-RLは、経験的リプレイに基づく勾配推定と、基礎となるネスト最適化問題の2段階の分解を統合する。
PGDA-RL は正規化 MDP の最適値関数とポリシーにほぼ確実に収束することを示す。
論文 参考訳(メタデータ) (2025-05-07T15:18:43Z) - Shuffled Linear Regression via Spectral Matching [6.24954299842136]
シャッフル線形回帰は線形変換を通じて潜在特徴を推定しようとする。
この問題は、従来の最小二乗法(LS)とLast Absolute Shrinkage and Selection Operator(LASSO)アプローチを拡張している。
置換を効率的に解決するスペクトルマッチング法を提案する。
論文 参考訳(メタデータ) (2024-09-30T16:26:40Z) - REBEL: Reinforcement Learning via Regressing Relative Rewards [59.68420022466047]
生成モデルの時代における最小限のRLアルゴリズムであるREBELを提案する。
理論的には、自然ポリシーグラディエントのような基本的なRLアルゴリズムはREBELの変種と見なすことができる。
我々はREBELが言語モデリングと画像生成に一貫したアプローチを提供し、PPOやDPOとより強くあるいは類似した性能を実現することを発見した。
論文 参考訳(メタデータ) (2024-04-25T17:20:45Z) - Solving Multistage Stochastic Linear Programming via Regularized Linear
Decision Rules: An Application to Hydrothermal Dispatch Planning [77.34726150561087]
AdaSO(Adaptive least absolute shrinkage and selection operator)に基づく線形決定規則(LDR)の新しい正規化手法を提案する。
実験により、MSLPを解くために古典的な非正規化LDRを使用する場合、過度に適合する脅威は無視できないことが示された。
LHDP問題に対しては、非正規化ベンチマークと比較して、提案したフレームワークの次の利点を強調した。
論文 参考訳(メタデータ) (2021-10-07T02:36:14Z) - Towards Understanding Label Smoothing [36.54164997035046]
ラベルスムーズな正規化(LSR)は、トレーニングアルゴリズムによるディープニューラルネットワークにおいて大きな成功を収めている。
適切なLSRが分散を減少させることで収束を加速することを示す。
本稿では,TSLA(Two-Stage LAbel smoothing algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-20T20:36:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。