論文の概要: Transfer Learning Across Fixed-Income Product Classes
- arxiv url: http://arxiv.org/abs/2505.07676v1
- Date: Mon, 12 May 2025 15:43:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.461267
- Title: Transfer Learning Across Fixed-Income Product Classes
- Title(参考訳): 固定所得品クラス間の転校学習
- Authors: Nicolas Camenzind, Damir Filipovic,
- Abstract要約: 固定所得品群間での割引曲線の伝達学習のための枠組みを提案する。
スパースデータやノイズデータから割引曲線を推定する際の課題により、カーネルリッジ回帰(KR)をベクトル値の設定に拡張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a framework for transfer learning of discount curves across different fixed-income product classes. Motivated by challenges in estimating discount curves from sparse or noisy data, we extend kernel ridge regression (KR) to a vector-valued setting, formulating a convex optimization problem in a vector-valued reproducing kernel Hilbert space (RKHS). Each component of the solution corresponds to the discount curve implied by a specific product class. We introduce an additional regularization term motivated by economic principles, promoting smoothness of spread curves between product classes, and show that it leads to a valid separable kernel structure. A main theoretical contribution is a decomposition of the vector-valued RKHS norm induced by separable kernels. We further provide a Gaussian process interpretation of vector-valued KR, enabling quantification of estimation uncertainty. Illustrative examples demonstrate that transfer learning significantly improves extrapolation performance and tightens confidence intervals compared to single-curve estimation.
- Abstract(参考訳): 固定所得品群間での割引曲線の伝達学習のための枠組みを提案する。
スパース値やノイズ値から割引曲線を推定する際の課題により、我々はカーネルリッジ回帰(KR)をベクトル値設定に拡張し、ベクトル値再生されたカーネルヒルベルト空間(RKHS)における凸最適化問題を定式化する。
解の各成分は、特定の積クラスによって示される割引曲線に対応する。
我々は、経済原理に動機づけられたさらなる正規化用語を導入し、製品クラス間の拡散曲線の滑らかさを促進し、それが有効な分離可能なカーネル構造につながることを示す。
主な理論的貢献は、分離可能なカーネルによって誘導されるベクトル値RKHSノルムの分解である。
さらに、ベクトル値KRのガウス過程の解釈を提供し、推定の不確実性の定量化を可能にする。
図示的な例では、伝達学習は外挿性能を著しく改善し、単曲推定と比較して信頼区間を狭める。
関連論文リスト
- Learning Analysis of Kernel Ridgeless Regression with Asymmetric Kernel Learning [33.34053480377887]
本稿では,局所適応バンド幅(LAB)RBFカーネルを用いたカーネルリッジレスレグレッションを強化する。
初めて、LAB RBFカーネルから学習した関数は、Reproducible Kernel Hilbert Spaces (RKHSs) の積分空間に属することを示した。
論文 参考訳(メタデータ) (2024-06-03T15:28:12Z) - Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Adaptive joint distribution learning [0.0]
テンソル積再生カーネルヒルベルト空間(RKHS)を用いた結合確率分布推定のための新しいフレームワークを開発する。
我々のフレームワークはラドン-ニコディム微分の低次元、正規化、正のモデルに対応しており、最大数百万のサンプルサイズから推定する。
論文 参考訳(メタデータ) (2021-10-10T15:51:01Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。