論文の概要: Online Linear Regression with Paid Stochastic Features
- arxiv url: http://arxiv.org/abs/2511.08073v1
- Date: Wed, 12 Nov 2025 01:38:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.627199
- Title: Online Linear Regression with Paid Stochastic Features
- Title(参考訳): 有料確率的特徴を持つオンライン線形回帰
- Authors: Nadav Merlis, Kyoungseok Jang, Nicolò Cesa-Bianchi,
- Abstract要約: 本研究では,観測された特徴ベクトルが雑音によって劣化し,学習者がノイズレベルを低減するために支払うことができるオンライン線形回帰設定について検討する。
本研究では,線形予測器に対する学習者の後悔度を,予測誤差と支払量を組み合わせた損失の概念を最小化する。
- 参考スコア(独自算出の注目度): 30.17994138589359
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study an online linear regression setting in which the observed feature vectors are corrupted by noise and the learner can pay to reduce the noise level. In practice, this may happen for several reasons: for example, because features can be measured more accurately using more expensive equipment, or because data providers can be incentivized to release less private features. Assuming feature vectors are drawn i.i.d. from a fixed but unknown distribution, we measure the learner's regret against the linear predictor minimizing a notion of loss that combines the prediction error and payment. When the mapping between payments and noise covariance is known, we prove that the rate $\sqrt{T}$ is optimal for regret if logarithmic factors are ignored. When the noise covariance is unknown, we show that the optimal regret rate becomes of order $T^{2/3}$ (ignoring log factors). Our analysis leverages matrix martingale concentration, showing that the empirical loss uniformly converges to the expected one for all payments and linear predictors.
- Abstract(参考訳): 本研究では,観測された特徴ベクトルが雑音によって劣化し,学習者がノイズレベルを低減するために支払うことができるオンライン線形回帰設定について検討する。
例えば、より高価な機器を使って、より正確に機能を測定することができるか、データプロバイダにインセンティブを与えて、よりプライベートな機能をリリースできるためである。
固定分布から特徴ベクトルが引かれると仮定すると、線形予測器に対して学習者の後悔を測り、予測誤差と支払いを結合した損失の概念を最小化する。
支払いとノイズの共分散のマッピングが知られているとき、対数的因子が無視される場合、その速度$\sqrt{T}$が後悔に最適であることを示す。
ノイズ共分散が未知の場合、最適後悔率は$T^{2/3}$となる(ログ係数を無視する)。
本分析では, マトリックスマーチンゲール濃度を利用して, 全支払いおよび線形予測器において, 経験的損失が期待値に均一に収束することを示した。
関連論文リスト
- Model-free Online Learning for the Kalman Filter: Forgetting Factor and Logarithmic Regret [2.313314525234138]
未知の非爆発線形系に対するオンライン予測の問題点を考察する。
既知のシステムモデルでは、最適な予測子はカルマンフィルタである。
我々は指数的忘れ込みを通じて回帰モデルに帰納バイアスを注入することでこの問題に取り組む。
論文 参考訳(メタデータ) (2025-05-13T21:49:56Z) - Minimax Optimality in Contextual Dynamic Pricing with General Valuation Models [8.981637739384674]
意思決定者は、観測可能なコンテキストに基づいてパーソナライズされた価格を投稿する。
それぞれのバリュエーションはコンテキストの未知の潜在関数としてモデル化され、独立性と同一に分散された市場ノイズによって破損する。
論文 参考訳(メタデータ) (2024-06-24T23:43:56Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Variance-Dependent Regret Bounds for Linear Bandits and Reinforcement
Learning: Adaptivity and Computational Efficiency [90.40062452292091]
本稿では,不整合雑音を持つ線形帯域に対する計算効率のよい最初のアルゴリズムを提案する。
我々のアルゴリズムは未知のノイズの分散に適応し、$tildeO(d sqrtsum_k = 1K sigma_k2 + d)$ regretを達成する。
また、強化学習において、線形混合マルコフ決定過程(MDP)に対する分散適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-21T00:17:24Z) - A Regret-Variance Trade-Off in Online Learning [14.41667013062914]
予測の分散が学習にどのように活用できるかを示す。
損失の減少を伴うオンライン予測では, 後悔に対する汚職の影響は大きなばらつきによって補うことができることを示す。
我々はその結果をオンライン線形回帰の設定にまで拡張する。
論文 参考訳(メタデータ) (2022-06-06T14:50:19Z) - No-Regret Learning with Unbounded Losses: The Case of Logarithmic
Pooling [12.933990572597583]
対数プール法(対数プール)として知られる基本的および実用的アグリゲーション法に焦点をあてる。
オンラインの対戦環境において,最適なパラメータ集合を学習する問題を考察する。
本稿では,O(sqrtT log T)$experied regretに達する方法で,専門家の重みを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-22T22:27:25Z) - Towards Agnostic Feature-based Dynamic Pricing: Linear Policies vs
Linear Valuation with Unknown Noise [16.871660060209674]
我々は,$tildeO(Tfrac34)$の後悔を実現するアルゴリズムを示し,$Omega(Tfrac35)$から$tildeOmega(Tfrac23)$への最もよく知られた下限を改善する。
その結果, 弱い仮定の下では, 特徴量に基づく動的価格設定が可能であることが示唆された。
論文 参考訳(メタデータ) (2022-01-27T06:40:03Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z) - Fast Rates for the Regret of Offline Reinforcement Learning [69.23654172273085]
無限水平割引決定プロセス(MDP)における固定行動ポリシーによって生成されたオフラインデータからの強化学習の後悔について検討する。
最適品質関数 $Q*$ に対する任意の推定が与えられたとき、定義するポリシーの後悔は、$Q*$-estimate の点収束率の指数によって与えられる速度で収束することを示す。
論文 参考訳(メタデータ) (2021-01-31T16:17:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。