論文の概要: Automatic Cross-Domain Transfer Learning for Linear Regression
- arxiv url: http://arxiv.org/abs/2005.04088v1
- Date: Fri, 8 May 2020 15:05:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 11:59:33.275684
- Title: Automatic Cross-Domain Transfer Learning for Linear Regression
- Title(参考訳): 線形回帰のためのクロスドメイン転送自動学習
- Authors: Liu Xinshun, He Xin, Mao Hui, Liu Jing, Lai Weizhong, Ye Qingwen
- Abstract要約: 本稿では,線形回帰問題に対する伝達学習能力の拡張を支援する。
通常のデータセットでは、移行学習に潜伏したドメイン情報が利用できると仮定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning research attempts to make model induction transferable
across different domains. This method assumes that specific information
regarding to which domain each instance belongs is known. This paper helps to
extend the capability of transfer learning for linear regression problems to
situations where the domain information is uncertain or unknown; in fact, the
framework can be extended to classification problems. For normal datasets, we
assume that some latent domain information is available for transfer learning.
The instances in each domain can be inferred by different parameters. We obtain
this domain information from the distribution of the regression coefficients
corresponding to the explanatory variable $x$ as well as the response variable
$y$ based on a Dirichlet process, which is more reasonable. As a result, we
transfer not only variable $x$ as usual but also variable $y$, which is
challenging since the testing data have no response value. Previous work mainly
overcomes the problem via pseudo-labelling based on transductive learning,
which introduces serious bias. We provide a novel framework for analysing the
problem and considering this general situation: the joint distribution of
variable $x$ and variable $y$. Furthermore, our method controls the bias well
compared with previous work. We perform linear regression on the new feature
space that consists of different latent domains and the target domain, which is
from the testing data. The experimental results show that the proposed model
performs well on real datasets.
- Abstract(参考訳): トランスファーラーニング研究は、異なるドメイン間でモデル誘導を転送できるようにする。
この方法は、各インスタンスが属するドメインに関する特定の情報が知られていると仮定する。
本稿では,線形回帰問題に対する転送学習の能力を,ドメイン情報が不確かあるいは不明な状況にまで拡張することを支援する。
通常のデータセットでは、移行学習のために潜在ドメイン情報が利用できると仮定する。
各ドメインのインスタンスは、異なるパラメータによって推測できる。
このドメイン情報は、説明変数 $x$ に対応する回帰係数の分布と、ディリクレプロセスに基づく応答変数 $y$ から得られる。
その結果、通常通り変数$x$を転送するだけでなく、変数$y$を転送します。
先行研究は主に、重大バイアスをもたらす帰納的学習に基づく擬似ラベリングを通じてこの問題を克服している。
問題を分析するための新しいフレームワークを提供し、この一般的な状況を考慮している:変数 $x$ と変数 $y$ のジョイント分布。
さらに,本手法は従来の手法と比較してバイアスをよく制御する。
我々は、異なる潜在ドメインとテストデータである対象ドメインからなる新しい特徴空間に対して線形回帰を行う。
実験結果から,提案モデルが実際のデータセットで良好に動作することを示す。
関連論文リスト
- First-Order Manifold Data Augmentation for Regression Learning [4.910937238451485]
我々は、新しいデータ駆動型ドメイン非依存データ拡張法であるFOMAを紹介する。
分布内一般化と分布外ベンチマークに基づいてFOMAを評価し,いくつかのニューラルアーキテクチャの一般化を改善することを示す。
論文 参考訳(メタデータ) (2024-06-16T12:35:05Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations [80.76164484820818]
多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスとドメインにまたがってよく一般化されたモデルを作成することを目的とする。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合することでこれを達成している。
論文 参考訳(メタデータ) (2022-10-25T21:54:26Z) - The Power and Limitation of Pretraining-Finetuning for Linear Regression
under Covariate Shift [127.21287240963859]
本研究では,対象データに基づく事前学習と微調整を併用した伝達学習手法について検討する。
大規模な線形回帰インスタンスの場合、$O(N2)$ソースデータによる転送学習は、$N$ターゲットデータによる教師あり学習と同じくらい効果的である。
論文 参考訳(メタデータ) (2022-08-03T05:59:49Z) - Domain-Class Correlation Decomposition for Generalizable Person
Re-Identification [34.813965300584776]
個人の再識別では、ドメインとクラスは相関する。
このドメイン・クラス間の相関関係により、ドメインの敵対的学習はクラスに関する特定の情報を失うことが示される。
我々のモデルは、大規模ドメイン一般化Re-IDベンチマークにおいて最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-29T09:45:03Z) - Quantifying and Improving Transferability in Domain Generalization [53.16289325326505]
アウト・オブ・ディストリビューションの一般化は、実験室から現実世界にモデルを移す際の重要な課題の1つである。
我々は、領域一般化において量子化と計算が可能な転送可能性を正式に定義する。
転送可能な特徴を学習し、様々なベンチマークデータセット上でテストするための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T14:04:32Z) - An Improved Transfer Model: Randomized Transferable Machine [32.50263074872975]
そこで本研究では,Randomized Transferable Machine (RTM) と呼ばれる新しいトランスファーモデルを提案する。
具体的には,既存の特徴量に基づく転送手法から得られた新たなソースとターゲットデータについて検討する。
原則として、汚職が多くなるほど、新しいターゲットデータの確率が高くなると、構築されたソースデータ人口でカバーできる。
論文 参考訳(メタデータ) (2020-11-27T09:37:01Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。