論文の概要: Transfer learning for scalar-on-function regression via control variates
- arxiv url: http://arxiv.org/abs/2601.17217v1
- Date: Fri, 23 Jan 2026 23:02:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.424667
- Title: Transfer learning for scalar-on-function regression via control variates
- Title(参考訳): 制御変数によるスカラー・オン・ファンクション回帰の伝達学習
- Authors: Yuping Yang, Zhiyang Zhou,
- Abstract要約: 伝達学習(TL)は、推定と予測性能を改善する強力なツールとして登場した。
本稿では,データセット固有の要約統計にのみ依存するフレームワークを提案する。
我々は,既存のTL戦略間の理論的関係を確立し,CVSベースの提案に対する収束率を導出する。
- 参考スコア(独自算出の注目度): 4.435940475554593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning (TL) has emerged as a powerful tool for improving estimation and prediction performance by leveraging information from related datasets. In this paper, we repurpose the control-variates (CVS) method for TL in the context of scalar-on-function regression. Our proposed framework relies exclusively on dataset-specific summary statistics, avoiding the need to pool subject-level data and thus remaining applicable in privacy-restricted or decentralized settings. We establish theoretical connections among several existing TL strategies and derive convergence rates for our CVS-based proposals. These rates explicitly account for the typically overlooked smoothing error and reveal how the similarity among covariance functions across datasets influences convergence behavior. Numerical studies support the theoretical findings and demonstrate that the proposed methods achieve competitive estimation and prediction performance compared with existing alternatives.
- Abstract(参考訳): 伝達学習(TL)は、関連するデータセットからの情報を活用することにより、推定と予測性能を改善する強力なツールとして登場した。
本稿では,スカラー・オン・ファンクション・レグレッションの文脈において,TLの制御変数(CVS)法を再利用する。
提案するフレームワークは,データセット固有の要約統計にのみ依存しており,対象レベルのデータをプールする必要がないため,プライバシに制限された,あるいは分散化された設定に留まる。
我々は,既存のTL戦略間の理論的関係を確立し,CVSに基づく提案に対する収束率を導出する。
これらの速度は、通常見過ごされた滑らかな誤差を明示的に説明し、データセット間の共分散関数間の類似性が収束挙動にどのように影響するかを明らかにする。
理論的研究は,提案手法が既存手法と比較して競争力のある推定および予測性能を達成することを示すものである。
関連論文リスト
- Tessellation Localized Transfer learning for nonparametric regression [0.764671395172401]
Transfer Learningは、関連するソースタスクの情報を活用することで、ターゲットタスクのパフォーマンスを改善することを目的としている。
ソース・ターゲット関係における不均一性を明示的にモデル化する非パラメトリック回帰変換学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-02T20:58:05Z) - Sparse Optimization for Transfer Learning: A L0-Regularized Framework for Multi-Source Domain Adaptation [9.605924781372849]
L0-regularizationに基づくSparse Optimization for Transfer Learningフレームワークを提案する。
シミュレーションにより、SOTLは推定精度と計算速度の両方を著しく改善することが示された。
コミュニティと犯罪のベンチマークにおける実証的検証は、クロスドメイン転送におけるSOTL法の統計的堅牢性を示している。
論文 参考訳(メタデータ) (2025-04-07T08:06:16Z) - Partial Transportability for Domain Generalization [56.37032680901525]
本稿では, 部分的同定と輸送可能性の理論に基づいて, 対象分布の関数値の有界化に関する新たな結果を紹介する。
我々の貢献は、輸送可能性問題に対する最初の一般的な評価手法を提供することである。
本稿では,スケーラブルな推論を実現するための勾配に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2025-03-30T22:06:37Z) - Meta-Statistical Learning: Supervised Learning of Statistical Inference [59.463430294611626]
この研究は、大きな言語モデル(LLM)の成功を駆動するツールと原則が、分散レベルのタスクに取り組むために再利用可能であることを実証している。
本稿では,統計的推論タスクを教師付き学習問題として再構成するマルチインスタンス学習に触発されたメタ統計学習を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:04:39Z) - Improving Transferability for Cross-domain Trajectory Prediction via
Neural Stochastic Differential Equation [41.09061877498741]
外部要因とデータ取得戦略によるデータセット間での相違がある。
大規模データセットでトレーニングされたモデルの熟練した性能は、他の小規模データセットでの転送可能性に制限がある。
本稿では,ニューラル微分方程式(NSDE)の連続的利用に基づく不一致の緩和手法を提案する。
提案手法の有効性は,一般的なベンチマークデータセットであるnuScenes,Argoverse,Lyft,InterinterAction,Open Motionデータセット上で,最先端の軌道予測モデルに対して検証される。
論文 参考訳(メタデータ) (2023-12-26T06:50:29Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Hypothesis Transfer Learning with Surrogate Classification Losses:
Generalization Bounds through Algorithmic Stability [3.908842679355255]
仮説伝達学習(HTL)は、以前のタスクレバレッジを新たなターゲットにすることで、ドメイン適応と対比する。
本稿では,機械学習アルゴリズム解析のための魅力的な理論フレームワークであるアルゴリズム安定性によるHTLの学習理論について検討する。
論文 参考訳(メタデータ) (2023-05-31T09:38:21Z) - An Information-Theoretic Perspective on Variance-Invariance-Covariance Regularization [52.44068740462729]
我々は、VICRegの目的に関する情報理論的な視点を示す。
我々は、VICRegの一般化を導出し、下流タスクに固有の利点を明らかにした。
既存のSSL技術よりも優れた情報理論の原理から派生したSSL手法のファミリーを紹介する。
論文 参考訳(メタデータ) (2023-03-01T16:36:25Z) - Robust Correction of Sampling Bias Using Cumulative Distribution
Functions [19.551668880584973]
変数ドメインとバイアス付きデータセットは、トレーニングとターゲット分布の違いにつながる可能性がある。
これを緩和するための現在のアプローチは、しばしばトレーニングとターゲット確率密度関数の比率を推定することに依存する。
論文 参考訳(メタデータ) (2020-10-23T22:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。