論文の概要: Data subsampling for Poisson regression with pth-root-link
- arxiv url: http://arxiv.org/abs/2410.22872v1
- Date: Wed, 30 Oct 2024 10:09:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:24:10.115971
- Title: Data subsampling for Poisson regression with pth-root-link
- Title(参考訳): pth-root-linkを用いたポアソン回帰のためのデータサブサンプリング
- Authors: Han Cheng Lie, Alexander Munteanu,
- Abstract要約: ポアソン回帰のためのデータサブサンプリング手法を開発し解析する。
特に,ポアソン一般化線形モデルと ID-および平方根リンク関数について考察する。
- 参考スコア(独自算出の注目度): 53.63838219437508
- License:
- Abstract: We develop and analyze data subsampling techniques for Poisson regression, the standard model for count data $y\in\mathbb{N}$. In particular, we consider the Poisson generalized linear model with ID- and square root-link functions. We consider the method of coresets, which are small weighted subsets that approximate the loss function of Poisson regression up to a factor of $1\pm\varepsilon$. We show $\Omega(n)$ lower bounds against coresets for Poisson regression that continue to hold against arbitrary data reduction techniques up to logarithmic factors. By introducing a novel complexity parameter and a domain shifting approach, we show that sublinear coresets with $1\pm\varepsilon$ approximation guarantee exist when the complexity parameter is small. In particular, the dependence on the number of input points can be reduced to polylogarithmic. We show that the dependence on other input parameters can also be bounded sublinearly, though not always logarithmically. In particular, we show that the square root-link admits an $O(\log(y_{\max}))$ dependence, where $y_{\max}$ denotes the largest count presented in the data, while the ID-link requires a $\Theta(\sqrt{y_{\max}/\log(y_{\max})})$ dependence. As an auxiliary result for proving the tightness of the bound with respect to $y_{\max}$ in the case of the ID-link, we show an improved bound on the principal branch of the Lambert $W_0$ function, which may be of independent interest. We further show the limitations of our analysis when $p$th degree root-link functions for $p\geq 3$ are considered, which indicate that other analytical or computational methods would be required if such a generalization is even possible.
- Abstract(参考訳): 本稿では,データをカウントする標準モデルであるPoisson回帰のためのデータサブサンプリング手法を開発し,解析する。
特に,ポアソン一般化線形モデルと ID-および平方根リンク関数について考察する。
我々は、ポアソン回帰の損失関数を最大1 pm\varepsilon$ まで近似する小さな重み付き部分集合であるコアセットの方法を考える。
対数係数まで任意のデータ還元手法を保ち続けるPoisson回帰のコアセットに対して$\Omega(n)$の低い境界を示す。
新たな複雑性パラメータとドメインシフトアプローチを導入することで、複雑性パラメータが小さい場合には、$ $1\pm\varepsilon$近似を保証するサブ線形コアセットが存在することを示す。
特に、入力点数への依存を多対数に減らすことができる。
我々は、他の入力パラメータへの依存は、常に対数的に表されるわけではないが、サブ線形に有界であることを示す。
特に、平方根リンクは$O(\log(y_{\max})$依存を許容しており、$y_{\max}$はデータで示される最大のカウントを表し、IDリンクは$\Theta(\sqrt{y_{\max}/\log(y_{\max})}$依存を必要とする。
ID-リンクの場合、$y_{\max}$に対する境界の厳密性を証明する補助的な結果として、ランバート$W_0$関数の主枝に改善された有界性を示す。
さらに、$p$thのルートリンク関数を$p\geq 3$で考えると、そのような一般化が可能であれば、他の解析的あるいは計算的手法が要求されることを示す。
関連論文リスト
- Improved Analysis of Sparse Linear Regression in Local Differential
Privacy Model [38.66115499136791]
局所微分プライバシー(LDP)モデルにおける疎線形回帰の問題を再考する。
そこで本研究では,この問題の第一種である革新的NLDPアルゴリズムを提案する。
その結果, 疎線形回帰問題における非私的ケース, 中央DPモデル, 局所DPモデルとの基本的差異が明らかとなった。
論文 参考訳(メタデータ) (2023-10-11T10:34:52Z) - Private Isotonic Regression [54.32252900997422]
部分順序集合 (poset) $mathcalX$ と任意のリプシッツ損失関数に対する等調回帰の問題を考察する。
約$mathrmwidth(mathcalX) cdot log|mathcalX| / n$, ここで$mathrmwidth(mathcalX)$はポーズの幅である。
上記の境界は本質的に最良であることを示す。
論文 参考訳(メタデータ) (2022-10-27T05:08:07Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - Nearly Minimax Optimal Reinforcement Learning with Linear Function
Approximation [25.60689712525918]
本稿では,遷移確率と報酬関数が線形な線形関数近似を用いた強化学習について検討する。
本稿では,新たなアルゴリズムLSVI-UCB$+$を提案し,$H$がエピソード長,$d$が特徴次元,$T$がステップ数である場合に,$widetildeO(HdsqrtT)$ regretboundを実現する。
論文 参考訳(メタデータ) (2022-06-23T06:04:21Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Asymptotic Theory of $\ell_1$-Regularized PDE Identification from a
Single Noisy Trajectory [2.0299248281970956]
線形および非線形進化的偏微分方程式(PDE)の一般クラスに対する1つの雑音軌道からの支持回復を証明した。
Local-Polynomialフィルタによって定義される単一の軌道データから、$mathbfc(lambda)のサポートが基礎となるPDEに関連する真の署名サポートに$ally収束することを保証する十分な条件のセットを提供します。
論文 参考訳(メタデータ) (2021-03-12T02:23:04Z) - Nearly Optimal Regret for Learning Adversarial MDPs with Linear Function
Approximation [92.3161051419884]
我々は、敵対的な報酬と完全な情報フィードバックで有限正方体エピソディックマルコフ決定プロセスのための強化学習を研究します。
我々は、$tildeO(dHsqrtT)$ regretを達成できることを示し、$H$はエピソードの長さである。
また、対数因子までの$tildeOmega(dHsqrtT)$の値が一致することを証明する。
論文 参考訳(メタデータ) (2021-02-17T18:54:08Z) - Last iterate convergence of SGD for Least-Squares in the Interpolation
regime [19.05750582096579]
基本最小二乗構成におけるノイズレスモデルについて検討する。
最適予測器が完全に入力に適合すると仮定し、$langletheta_*, phi(X) rangle = Y$, ここで$phi(X)$は無限次元の非線型特徴写像を表す。
論文 参考訳(メタデータ) (2021-02-05T14:02:20Z) - Logarithmic Regret for Reinforcement Learning with Linear Function
Approximation [99.59319332864129]
最近提案された2つの線形MDP仮定で対数的後悔が達成可能であることを示す。
我々の知る限り、これらは線型関数近似を持つRLに対する最初の対数的後悔境界である。
論文 参考訳(メタデータ) (2020-11-23T17:25:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。