論文の概要: Tessellation Localized Transfer learning for nonparametric regression
- arxiv url: http://arxiv.org/abs/2601.00987v1
- Date: Fri, 02 Jan 2026 20:58:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.922778
- Title: Tessellation Localized Transfer learning for nonparametric regression
- Title(参考訳): 非パラメトリック回帰のためのTessellation Localized Transfer Learning
- Authors: Hélène Halconruy, Benjamin Bobbia, Paul Lejamtel,
- Abstract要約: Transfer Learningは、関連するソースタスクの情報を活用することで、ターゲットタスクのパフォーマンスを改善することを目的としている。
ソース・ターゲット関係における不均一性を明示的にモデル化する非パラメトリック回帰変換学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.764671395172401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning aims to improve performance on a target task by leveraging information from related source tasks. We propose a nonparametric regression transfer learning framework that explicitly models heterogeneity in the source-target relationship. Our approach relies on a local transfer assumption: the covariate space is partitioned into finitely many cells such that, within each cell, the target regression function can be expressed as a low-complexity transformation of the source regression function. This localized structure enables effective transfer where similarity is present while limiting negative transfer elsewhere. We introduce estimators that jointly learn the local transfer functions and the target regression, together with fully data-driven procedures that adapt to unknown partition structure and transfer strength. We establish sharp minimax rates for target regression estimation, showing that local transfer can mitigate the curse of dimensionality by exploiting reduced functional complexity. Our theoretical guarantees take the form of oracle inequalities that decompose excess risk into estimation and approximation terms, ensuring robustness to model misspecification. Numerical experiments illustrate the benefits of the proposed approach.
- Abstract(参考訳): Transfer Learningは、関連するソースタスクの情報を活用することで、ターゲットタスクのパフォーマンスを改善することを目的としている。
ソース・ターゲット関係における不均一性を明示的にモデル化する非パラメトリック回帰変換学習フレームワークを提案する。
共変量空間は有限個のセルに分割され、各セルにおいて、対象回帰関数はソース回帰関数の低複雑さ変換として表現できる。
この局所構造は、他の場所での負の移動を制限しながら類似性が存在するような効果的な移動を可能にする。
局所移動関数と目標回帰を協調的に学習する推定器と、未知の分割構造や伝達強度に適応する完全にデータ駆動の手順を導入する。
目標回帰推定のためのシャープ・ミニマックス・レートを確立し,機能的複雑性の低減を生かして,局所移動が次元の呪いを軽減することを示す。
我々の理論的保証は、過大なリスクを推定と近似の項に分解するオラクルの不等式を形取り、誤特定をモデル化するための堅牢性を保証する。
数値実験は提案手法の利点を例証する。
関連論文リスト
- A Turn Toward Better Alignment: Few-Shot Generative Adaptation with Equivariant Feature Rotation [67.2019317630466]
少ない撮影画像生成は、ごく少数の訓練画像を用いて、ソース生成モデルをターゲット領域に効果的に適応することを目的としている。
Equivariant Feature Rotation (EFR) は、ソースドメインとターゲットドメインを2つの相補的なレベルで整列させる新しい適応戦略である。
本手法は,対象領域内の生成性能を著しく向上させる。
論文 参考訳(メタデータ) (2025-12-24T13:48:22Z) - Heterogeneous transfer learning for high dimensional regression with feature mismatch [1.6385815610837167]
我々は、情報源やプロキシドメインから新たなターゲットドメインに知識を移すことの問題を考察し、おそらく異なる特徴を持つ高次元回帰モデルを学ぶ。
ほとんどの均質移動とマルチタスク学習法は、ターゲットドメインとプロキシドメインが同じ特徴空間を持つと仮定する。
本稿では,プロキシデータのプロジェクションステップを通じて,欠落した特徴と観察された特徴の関係を学習する2段階の手法を提案する。
論文 参考訳(メタデータ) (2024-12-24T01:29:31Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Robust Transfer Learning with Unreliable Source Data [11.813197709246289]
対象関数とソース回帰関数との差を測定する「あいまい度レベル」と呼ばれる新しい量を導入する。
本稿では, 簡単な伝達学習手法を提案し, この新しい量が学習の伝達可能性にどのように関係しているかを示す一般的な定理を確立する。
論文 参考訳(メタデータ) (2023-10-06T21:50:21Z) - Compressed Regression over Adaptive Networks [58.79251288443156]
分散エージェントのネットワークによって達成可能な性能を導出し,通信制約や回帰問題を解消し,適応的に解決する。
エージェントによって最適化に必要なパラメータをオンラインで学習できる最適化アロケーション戦略を考案する。
論文 参考訳(メタデータ) (2023-04-07T13:41:08Z) - Estimation and inference for transfer learning with high-dimensional
quantile regression [3.4510296013600374]
本研究では,高次元量子レグレッションモデルの枠組みにおける伝達学習手法を提案する。
我々は、微妙に選択された転送可能なソースドメインに基づいて、転送学習推定器の誤差境界を確立する。
データ分割手法を採用することにより、負の転送を回避できる転送可能性検出手法を提案する。
論文 参考訳(メタデータ) (2022-11-26T14:40:19Z) - Which Invariance Should We Transfer? A Causal Minimax Learning Approach [18.71316951734806]
本稿では、因果的観点からの包括的ミニマックス分析について述べる。
最小の最悪のリスクを持つサブセットを探索する効率的なアルゴリズムを提案する。
本手法の有効性と有効性は, 合成データとアルツハイマー病の診断で実証された。
論文 参考訳(メタデータ) (2021-07-05T09:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。