論文の概要: Learning Multi-Task Gaussian Process Over Heterogeneous Input Domains
- arxiv url: http://arxiv.org/abs/2202.12636v1
- Date: Fri, 25 Feb 2022 11:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 14:11:06.699487
- Title: Learning Multi-Task Gaussian Process Over Heterogeneous Input Domains
- Title(参考訳): 不均一入力領域上でのマルチタスクガウス過程の学習
- Authors: Haitao Liu, Kai Wu, Yew-Soon Ong, Xiaomo Jiang, Xiaofang Wang
- Abstract要約: マルチタスクガウス過程(MTGP)は、相関タスクを学習するためのよく知られた非パラメトリックベイズモデルである。
本稿では,多様な入力領域でタスクを同時に学習する,新しいヘテロジニアス変分線形モデルであるコリージョン化(HSVLMC)を提案する。
- 参考スコア(独自算出の注目度): 27.197576157695096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task Gaussian process (MTGP) is a well-known non-parametric Bayesian
model for learning correlated tasks effectively by transferring knowledge
across tasks. But current MTGP models are usually limited to the multi-task
scenario defined in the same input domain, leaving no space for tackling the
practical heterogeneous case, i.e., the features of input domains vary over
tasks. To this end, this paper presents a novel heterogeneous stochastic
variational linear model of coregionalization (HSVLMC) model for simultaneously
learning the tasks with varied input domains. Particularly, we develop the
stochastic variational framework with a Bayesian calibration method that (i)
takes into account the effect of dimensionality reduction raised by domain
mapping in order to achieve effective input alignment; and (ii) employs a
residual modeling strategy to leverage the inductive bias brought by prior
domain mappings for better model inference. Finally, the superiority of the
proposed model against existing LMC models has been extensively verified on
diverse heterogeneous multi-task cases.
- Abstract(参考訳): マルチタスクガウス過程(MTGP)は、タスク間で知識を伝達することで相関したタスクを効果的に学習するためのよく知られた非パラメトリックベイズモデルである。
しかし、現在のmtgpモデルは、通常、同じ入力ドメインで定義されたマルチタスクシナリオに限定されており、実際の異質なケースに取り組むためのスペースは残っていない。
そこで本稿では,同地域化モデル(hsvlmc)の確率的変分線形モデルを用いて,入力領域の異なるタスクを同時に学習する手法を提案する。
特に,ベイズ校正法を用いて確率的変分枠組みを開発した。
(i)効果的な入力アライメントを達成するために、ドメインマッピングによって引き起こされる次元の縮小の効果を考慮に入れる。
(ii) モデル推論を改善するために、事前ドメインマッピングによってもたらされる帰納的バイアスを活用するために、残留モデリング戦略を用いる。
最後に、既存のlmcモデルに対する提案モデルの優位性は、多様な異種マルチタスクケースにおいて広範囲に検証されている。
関連論文リスト
- Regularized Multi-output Gaussian Convolution Process with Domain Adaptation [0.0]
多出力ガウス過程 (MGP) は複数の出力をモデル化する伝達学習法として注目されている。
高い柔軟性と汎用性にもかかわらず、MGPはトランスファーラーニングに適用する際の2つの重要な課題に直面している。
1つ目は負の転送であり、出力の間に共有情報がないときに発生する。
第二の課題は入力領域の不整合であり、一般的には移動学習において研究されているが、MGPでは研究されていない。
論文 参考訳(メタデータ) (2024-09-04T14:56:28Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
課題群規則化(Task Groupings Regularization)は、矛盾するタスクをグループ化し整合させることにより、モデルの不均一性から恩恵を受ける新しいアプローチである。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - AdaMerging: Adaptive Model Merging for Multi-Task Learning [68.75885518081357]
本稿では,Adaptive Model Merging (AdaMerging)と呼ばれる革新的な手法を紹介する。
本来のトレーニングデータに頼ることなく、タスクレベルでも階層的にも、モデルマージの係数を自律的に学習することを目指している。
AdaMergingは、現在の最先端のタスク演算のマージ方式と比較すると、パフォーマンスが11%向上している。
論文 参考訳(メタデータ) (2023-10-04T04:26:33Z) - Multi-Response Heteroscedastic Gaussian Process Models and Their
Inference [1.52292571922932]
本稿ではヘテロセダスティック共分散関数のモデリングのための新しいフレームワークを提案する。
後部モデルに近似し, 後部予測モデルを容易にするために, 変分推論を用いる。
提案するフレームワークは,幅広いアプリケーションに対して,堅牢で汎用的なツールを提供する。
論文 参考訳(メタデータ) (2023-08-29T15:06:47Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Transfer learning with affine model transformation [18.13383101189326]
本稿では,アフィンモデル転送と呼ばれる,伝達学習の一般的なクラスについて述べる。
アフィンモデル転送は、ニューラル特徴抽出器に基づく最も一般的な手順を含む、様々な既存手法を幅広く包含していることが示されている。
論文 参考訳(メタデータ) (2022-10-18T10:50:24Z) - A Novel Mix-normalization Method for Generalizable Multi-source Person
Re-identification [49.548815417844786]
人物再識別(Re-ID)は、監督されたシナリオにおいて大きな成功を収めた。
モデルがソースドメインに過度に適合するため、教師付きモデルを任意の未確認領域に直接転送することは困難である。
ドメイン・アウェア・ミックス正規化(DMN)とドメイン・ウェア・センター正規化(DCR)からなるMixNormを提案する。
論文 参考訳(メタデータ) (2022-01-24T18:09:38Z) - Scalable Multi-Task Gaussian Processes with Neural Embedding of
Coregionalization [9.873139480223367]
マルチタスク回帰は,タスク間の知識伝達を実現するために,タスク類似性を活用しようとする。
コリージョン化の線形モデル(英: linear model of co Regionalalization, LMC)は、複数の独立かつ多様なGPの線形結合によってタスクの依存性を利用する、よく知られたMTGPパラダイムである。
我々は,潜伏GPを高次元の潜伏空間に変換するコリージョン化のニューラル埋め込みを開発し,リッチだが多様な振る舞いを誘導する。
論文 参考訳(メタデータ) (2021-09-20T01:28:14Z) - T-SVDNet: Exploring High-Order Prototypical Correlations for
Multi-Source Domain Adaptation [41.356774580308986]
マルチソースドメイン適応の課題に対処するために,T-SVDNetという新しい手法を提案する。
複数のドメインとカテゴリの高次相関は、ドメインギャップを埋めるため、完全に検討されている。
ノイズ源データによる負の伝達を回避するため,新しい不確実性を考慮した重み付け手法を提案する。
論文 参考訳(メタデータ) (2021-07-30T06:33:05Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。