論文の概要: R^2-HGP: A Double-Regularized Gaussian Process for Heterogeneous Transfer Learning
- arxiv url: http://arxiv.org/abs/2512.10258v1
- Date: Thu, 11 Dec 2025 03:38:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.182297
- Title: R^2-HGP: A Double-Regularized Gaussian Process for Heterogeneous Transfer Learning
- Title(参考訳): R^2-HGP:不均一移動学習のための二重正規化ガウス過程
- Authors: Duo Wang, Xinming Wang, Chao Wang, Xiaowei Yue, Jianguo Wu,
- Abstract要約: 多出力ガウス過程(MGP)モデルは、その柔軟性と不確実性量子化能力に大きな注目を集めている。
マルチソース・トランスファー・ラーニングのシナリオでは、タスク間の相関を捉える能力から広く採用されている。
本稿では、転送学習におけるいくつかの課題を克服するために、二重規則化ヘテロジニアスガウスプロセスフレームワーク(R2-HGP)を提案する。
- 参考スコア(独自算出の注目度): 15.278249213859844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-output Gaussian process (MGP) models have attracted significant attention for their flexibility and uncertainty-quantification capabilities, and have been widely adopted in multi-source transfer learning scenarios due to their ability to capture inter-task correlations. However, they still face several challenges in transfer learning. First, the input spaces of the source and target domains are often heterogeneous, which makes direct knowledge transfer difficult. Second, potential prior knowledge and physical information are typically ignored during heterogeneous transfer, hampering the utilization of domain-specific insights and leading to unstable mappings. Third, inappropriate information sharing among target and sources can easily lead to negative transfer. Traditional models fail to address these issues in a unified way. To overcome these limitations, this paper proposes a Double-Regularized Heterogeneous Gaussian Process framework (R^2-HGP). Specifically, a trainable prior probability mapping model is first proposed to align the heterogeneous input domains. The resulting aligned inputs are treated as latent variables, upon which a multi-source transfer GP model is constructed and the entire structure is integrated into a novel conditional variational autoencoder (CVAE) based framework. Physical insights is further incorporated as a regularization term to ensure that the alignment results adhere to known physical knowledge. Next, within the multi-source transfer GP model, a sparsity penalty is imposed on the transfer coefficients, enabling the model to adaptively select the most informative source outputs and suppress negative transfer. Extensive simulations and real-world engineering case studies validate the effectiveness of our R^2-HGP, demonstrating consistent superiority over state-of-the-art benchmarks across diverse evaluation metrics.
- Abstract(参考訳): マルチアウトプットガウス過程(MGP)モデルは、その柔軟性と不確実性量子化能力に大きな注目を集めており、タスク間の相関を捉える能力から、マルチソース転送学習のシナリオで広く採用されている。
しかし、彼らはトランスファーラーニングにおけるいくつかの課題に直面している。
まず、ソース領域とターゲット領域の入力空間は、しばしば不均一であり、直接の知識伝達が困難になる。
第二に、潜在的な事前知識と物理情報は、通常、異種移動の間に無視され、ドメイン固有の洞察の利用を妨げ、不安定なマッピングをもたらす。
第3に、ターゲットとソース間の不適切な情報共有は、容易に負の転送につながる。
従来のモデルはこれらの問題に統一的な方法で対処することができない。
これらの制約を克服するため,本論文では,R^2-HGP(Double-Regularized Heterogeneous Gaussian Process framework)を提案する。
具体的には、不均一な入力領域を整列させるために、トレーニング可能な事前確率マッピングモデルが最初に提案される。
得られたアライメントされた入力は遅延変数として扱われ、複数のソース転送GPモデルが構築され、構造全体が新しい条件付き変分オートエンコーダ(CVAE)ベースのフレームワークに統合される。
物理的洞察は、アライメント結果が既知の物理的知識に従属することを保証するために、正規化用語としてさらに組み込まれている。
次に、マルチソース転送GPモデルにおいて、転送係数にスパーシティペナルティを課し、最も情報性の高いソース出力を適応的に選択し、負の転送を抑制する。
大規模シミュレーションと実世界の工学ケーススタディにより,R^2-HGPの有効性が検証された。
関連論文リスト
- Wasserstein Transfer Learning [6.602088845993411]
本稿では,ワッサーシュタイン空間に分布する確率分布を出力とする回帰モデルのための新しい伝達学習フレームワークを提案する。
本稿では,領域類似度が伝達効率に与える影響を定量化するために,証明可能な収束率を持つ推定器を提案する。
情報的サブセットが不明な場合には、負の転送を緩和するデータ駆動型転送学習手法を開発する。
論文 参考訳(メタデータ) (2025-05-23T02:38:03Z) - Progressive Multi-Source Domain Adaptation for Personalized Facial Expression Recognition [64.37805399216347]
パーソナライズされた表情認識(FER)では、ラベル付きソースとラベルなしターゲットドメインのサンプルを使用して機械学習モデルを適用する。
本稿では,対象者との類似性に基づいて,段階的なMSDA手法を提案する。
論文 参考訳(メタデータ) (2025-04-05T19:14:51Z) - Transfer Learning through Enhanced Sufficient Representation: Enriching Source Domain Knowledge with Target Data [2.308168896770315]
TESR(Enhanced Sufficient Representation)によるトランスファーラーニング(Transfer Learning)と呼ばれる新しいトランスファーラーニング手法を提案する。
私たちのアプローチは、ソースドメインから十分かつ不変な表現を推定することから始まります。
この表現は、ターゲットデータから派生した独立したコンポーネントで拡張され、ターゲットドメインに十分で、その特定の特性に適応できることが保証される。
論文 参考訳(メタデータ) (2025-02-22T13:18:28Z) - Dual-stream Feature Augmentation for Domain Generalization [16.495752769624872]
2つの視点からいくつかのハードな特徴を構築することでDFA(Dual-stream Feature Augmentation)法を提案する。
提案手法は,領域一般化のための最先端性能を実現することができる。
論文 参考訳(メタデータ) (2024-09-07T03:41:05Z) - Regularized Multi-output Gaussian Convolution Process with Domain Adaptation [0.0]
多出力ガウス過程 (MGP) は複数の出力をモデル化する伝達学習法として注目されている。
高い柔軟性と汎用性にもかかわらず、MGPはトランスファーラーニングに適用する際の2つの重要な課題に直面している。
1つ目は負の転送であり、出力の間に共有情報がないときに発生する。
第二の課題は入力領域の不整合であり、一般的には移動学習において研究されているが、MGPでは研究されていない。
論文 参考訳(メタデータ) (2024-09-04T14:56:28Z) - Balancing Discriminability and Transferability for Source-Free Domain
Adaptation [55.143687986324935]
従来のドメイン適応(DA)技術は、ドメイン不変表現を学習することでドメイン転送性を改善することを目的としている。
ラベル付けされたソースとラベル付けされていないターゲットへの同時アクセス要件は、ソースフリーなDA設定に適さない。
そこで本研究では,原文と翻訳サンプルの混在が識別可能性と伝達可能性のトレードオフを促進することを示す新しい知見を導出する。
論文 参考訳(メタデータ) (2022-06-16T09:06:22Z) - Instrumental Variable-Driven Domain Generalization with Unobserved
Confounders [53.735614014067394]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインから、目に見えないターゲットドメインをうまく一般化できるモデルを学ぶことを目的としている。
観測不能な共同創設者のバイアスを2段階学習で除去し,インストゥルメンタル変数駆動型DG法(IV-DG)を提案する。
第1段階では、あるドメインの入力特徴の条件分布を他のドメインの入力特徴の条件分布として学習する。
第2段階では,ラベルと学習条件分布の関係を推定する。
論文 参考訳(メタデータ) (2021-10-04T13:32:57Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。