論文の概要: Regret-Optimal Federated Transfer Learning for Kernel Regression with
Applications in American Option Pricing
- arxiv url: http://arxiv.org/abs/2309.04557v1
- Date: Fri, 8 Sep 2023 19:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 17:50:06.142661
- Title: Regret-Optimal Federated Transfer Learning for Kernel Regression with
Applications in American Option Pricing
- Title(参考訳): カーネル回帰のための後悔-最適フェデレート転送学習とアメリカのオプション価格設定への応用
- Authors: Xuwei Yang and Anastasis Kratsios and Florian Krach and Matheus
Grasselli and Aurelien Lucchi
- Abstract要約: 本稿では、中央プランナーがデータセットにアクセス可能なフェデレーショントランスファー学習のための最適反復スキームを提案する。
我々の目標は、生成されたパラメータの累積偏差を$thetai(t)_t=0T$で最小化することである。
後悔と最適化のアルゴリズム内で対称性を活用することで, $mathcalO(Np2)$少なめの初等演算を伴って動作する,ほぼ後悔のいく$_optimalを開発する。
- 参考スコア(独自算出の注目度): 9.358582006140903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an optimal iterative scheme for federated transfer learning, where
a central planner has access to datasets ${\cal D}_1,\dots,{\cal D}_N$ for the
same learning model $f_{\theta}$. Our objective is to minimize the cumulative
deviation of the generated parameters $\{\theta_i(t)\}_{t=0}^T$ across all $T$
iterations from the specialized parameters
$\theta^\star_{1},\ldots,\theta^\star_N$ obtained for each dataset, while
respecting the loss function for the model $f_{\theta(T)}$ produced by the
algorithm upon halting. We only allow for continual communication between each
of the specialized models (nodes/agents) and the central planner (server), at
each iteration (round). For the case where the model $f_{\theta}$ is a
finite-rank kernel regression, we derive explicit updates for the
regret-optimal algorithm. By leveraging symmetries within the regret-optimal
algorithm, we further develop a nearly regret-optimal heuristic that runs with
$\mathcal{O}(Np^2)$ fewer elementary operations, where $p$ is the dimension of
the parameter space. Additionally, we investigate the adversarial robustness of
the regret-optimal algorithm showing that an adversary which perturbs $q$
training pairs by at-most $\varepsilon>0$, across all training sets, cannot
reduce the regret-optimal algorithm's regret by more than
$\mathcal{O}(\varepsilon q \bar{N}^{1/2})$, where $\bar{N}$ is the aggregate
number of training pairs. To validate our theoretical findings, we conduct
numerical experiments in the context of American option pricing, utilizing a
randomly generated finite-rank kernel.
- Abstract(参考訳): そこで、中央プランナーが同じ学習モデルである$f_{\theta}$に対して${\cal d}_1,\dots,{\cal d}_n$というデータセットにアクセスできるフェデレーション転送学習のための最適な反復スキームを提案する。
我々の目的は、生成されたパラメータ$\{\theta_i(t)\}_{t=0}^T$を特別なパラメータ$\theta^\star_{1},\ldots,\theta^\star_N$から全ての$T$反復に対して累積偏差を最小化し、停止時にアルゴリズムが生成したモデル$f_{\theta(T)}$の損失関数を尊重することである。
それぞれのイテレーション(全体)において、それぞれの特化モデル(ノード/エージェント)と中央プランナー(サーバ)間の連続的な通信のみを許可します。
モデル $f_{\theta}$ が有限ランクのカーネル回帰である場合、我々は後悔最適化アルゴリズムの明示的な更新を導出する。
後悔-最適アルゴリズム内で対称性を活用することにより、より少ない基本演算で実行されるほぼ後悔-最適ヒューリスティックがさらに発展し、$p$はパラメータ空間の次元である。
さらに、全てのトレーニングセットにおいて、少なくとも$\varepsilon>0$で$q$のトレーニングペアを摂る相手が、$\mathcal{O}(\varepsilon q \bar{N}^{1/2})$以上の後悔を減らせることができないことを示す。
理論的な結果を検証するために,ランダムに生成された有限ランクカーネルを用いて,アメリカのオプション価格の文脈で数値実験を行った。
関連論文リスト
- A Proximal Modified Quasi-Newton Method for Nonsmooth Regularized Optimization [0.7373617024876725]
Lipschitz-of-$nabla f$
$mathcalS_k|p$。
$mathcalS_k|p$。
$nabla f$.
$mathcalS_k|p$。
論文 参考訳(メタデータ) (2024-09-28T18:16:32Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Sharper Model-free Reinforcement Learning for Average-reward Markov
Decision Processes [21.77276136591518]
我々はマルコフ決定過程(MDPs)のための証明可能なモデルフリー強化学習(RL)アルゴリズムを開発した。
シミュレータ設定では,$widetildeO left(fracSAmathrmsp(h*)epsilon2+fracS2Amathrmsp(h*)epsilon2right)$サンプルを用いて,$epsilon$-optimal Policyを求める。
論文 参考訳(メタデータ) (2023-06-28T17:43:19Z) - ReSQueing Parallel and Private Stochastic Convex Optimization [59.53297063174519]
本稿では,BFG凸最適化(SCO: Reweighted Query (ReSQue) 推定ツールを提案する。
我々はSCOの並列およびプライベート設定における最先端の複雑さを実現するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-01T18:51:29Z) - An Optimal Stochastic Algorithm for Decentralized Nonconvex Finite-sum
Optimization [25.21457349137344]
私たちは、DEARESTが少なくとも$mathcal O(+sqrtmnLvarepsilon-2)$ 1次オラクル(IFO)コールと$mathcal O(Lvarepsilon-2/sqrt1-lambda_W)$通信ラウンドを必要とすることを示す証拠を示します。
論文 参考訳(メタデータ) (2022-10-25T11:37:11Z) - Model Selection with Near Optimal Rates for Reinforcement Learning with
General Model Classes [27.361399036211694]
有限地平線エピソディック強化学習(RL)問題に対するモデル選択の問題に対処する。
モデル選択フレームワークでは、$mathcalP*$の代わりに、遷移カーネルのネストされたファミリーが$M$を与えられる。
textttARL-GENが$TildemathcalO(d_mathcalE* H2+sqrtd_mathcalE* mathbbM* H2T)$の後悔を得ることを示す。
論文 参考訳(メタデータ) (2021-07-13T05:00:38Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Bayesian Optimistic Optimisation with Exponentially Decaying Regret [58.02542541410322]
現在の実用的なBOアルゴリズムは、$mathcalO(fraclogNsqrtN)$から$mathcalO(e-sqrtN)$まで、$N$は評価の数である。
本稿では,boと木に基づく楽観的楽観化の概念を絡み合うことにより,無音環境における後悔を改善できる可能性について検討する。
次数$mathcal O(N-sqrt)で指数的再帰を達成できる最初の実践的手法であるBOOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T13:07:44Z) - Private Stochastic Convex Optimization: Optimal Rates in $\ell_1$
Geometry [69.24618367447101]
対数要因まで $(varepsilon,delta)$-differently private の最適過剰人口損失は $sqrtlog(d)/n + sqrtd/varepsilon n.$ です。
損失関数がさらなる滑らかさの仮定を満たすとき、余剰損失は$sqrtlog(d)/n + (log(d)/varepsilon n)2/3で上界(対数因子まで)であることが示される。
論文 参考訳(メタデータ) (2021-03-02T06:53:44Z) - Optimal Regret Algorithm for Pseudo-1d Bandit Convex Optimization [51.23789922123412]
我々は,バンディットフィードバックを用いてオンライン学習を学習する。
learnerは、コスト/リワード関数が"pseudo-1d"構造を許可するゼロ次オラクルのみにアクセスできる。
我々は、$T$がラウンドの数である任意のアルゴリズムの後悔のために$min(sqrtdT、T3/4)$の下限を示しています。
ランダム化オンライングラデーション下降とカーネル化指数重み法を組み合わせた新しいアルゴリズムsbcalgを提案し,疑似-1d構造を効果的に活用する。
論文 参考訳(メタデータ) (2021-02-15T08:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。