論文の概要: The Power and Limitation of Pretraining-Finetuning for Linear Regression
under Covariate Shift
- arxiv url: http://arxiv.org/abs/2208.01857v1
- Date: Wed, 3 Aug 2022 05:59:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:20:57.897144
- Title: The Power and Limitation of Pretraining-Finetuning for Linear Regression
under Covariate Shift
- Title(参考訳): 共変量シフト下における線形回帰の事前学習のパワーと限界
- Authors: Jingfeng Wu and Difan Zou and Vladimir Braverman and Quanquan Gu and
Sham M. Kakade
- Abstract要約: 本研究では,対象データに基づく事前学習と微調整を併用した伝達学習手法について検討する。
大規模な線形回帰インスタンスの場合、$O(N2)$ソースデータによる転送学習は、$N$ターゲットデータによる教師あり学習と同じくらい効果的である。
- 参考スコア(独自算出の注目度): 127.21287240963859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study linear regression under covariate shift, where the marginal
distribution over the input covariates differs in the source and the target
domains, while the conditional distribution of the output given the input
covariates is similar across the two domains. We investigate a transfer
learning approach with pretraining on the source data and finetuning based on
the target data (both conducted by online SGD) for this problem. We establish
sharp instance-dependent excess risk upper and lower bounds for this approach.
Our bounds suggest that for a large class of linear regression instances,
transfer learning with $O(N^2)$ source data (and scarce or no target data) is
as effective as supervised learning with $N$ target data. In addition, we show
that finetuning, even with only a small amount of target data, could
drastically reduce the amount of source data required by pretraining. Our
theory sheds light on the effectiveness and limitation of pretraining as well
as the benefits of finetuning for tackling covariate shift problems.
- Abstract(参考訳): 共変量シフト下での線形回帰について検討し,入力共変量に対する限界分布は源領域と対象領域で異なるが,入力共変量に対する出力の条件分布は2つの領域にまたがる。
そこで本稿では,本問題のターゲットデータ(オンラインSGD)に基づいて,ソースデータとファインタニングを事前学習したトランスファーラーニング手法について検討する。
このアプローチに対して、鋭いインスタンス依存過剰リスクを上および下限に設定する。
我々の限界は、大規模な線形回帰インスタンスの場合、$O(N^2)$ソースデータによる転送学習は、$N$ターゲットデータによる教師あり学習と同じくらい効果的であることを示している。
さらに,少量のターゲットデータであっても,事前トレーニングに必要なソースデータ量を大幅に削減できることを示す。
我々の理論は,事前学習の有効性と限界,および共変量シフト問題に取り組むための微調整の利点を浮き彫りにしている。
関連論文リスト
- Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - Memory Consistent Unsupervised Off-the-Shelf Model Adaptation for
Source-Relaxed Medical Image Segmentation [13.260109561599904]
非教師なしドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きヘテロジニアスターゲットドメインに学習した情報を移行するための重要なプロトコルである。
我々は、ソースドメインで訓練されたOSセグメントをターゲットドメインに適応させることにより、イメージセグメンテーションを目的とした「オフ・ザ・シェルフ(OS)」 UDA (OSUDA) を提案する。
論文 参考訳(メタデータ) (2022-09-16T13:13:50Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Learning Invariant Representation with Consistency and Diversity for
Semi-supervised Source Hypothesis Transfer [46.68586555288172]
本稿では,SSHT(Semi-supervised Source hypothesis Transfer)という新たなタスクを提案する。
本研究では、ランダムに拡張された2つの未ラベルデータ間の予測整合性を容易にし、SSHTの簡易かつ効果的なフレームワークである一貫性と多様性の学習(CDL)を提案する。
実験の結果,本手法は,DomainNet,Office-Home,Office-31データセット上で,既存のSSDA手法や教師なしモデル適応手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-07T04:14:24Z) - Near-Optimal Linear Regression under Distribution Shift [63.87137348308034]
線形ミニマックス推定器は、様々なソース/ターゲット分布に対する非線形推定器の中でも、ミニマックスリスクの絶対定数内にあることを示す。
論文 参考訳(メタデータ) (2021-06-23T00:52:50Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Regressive Domain Adaptation for Unsupervised Keypoint Detection [67.2950306888855]
ドメイン適応(DA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的とする。
本稿では,教師なしキーポイント検出のためのレグレッシブドメイン適応(RegDA)法を提案する。
提案手法は,異なるデータセット上のPCKにおいて,8%から11%の大幅な改善をもたらす。
論文 参考訳(メタデータ) (2021-03-10T16:45:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。