論文の概要: A General Class of Transfer Learning Regression without Implementation
Cost
- arxiv url: http://arxiv.org/abs/2006.13228v2
- Date: Thu, 17 Dec 2020 04:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:16:30.524026
- Title: A General Class of Transfer Learning Regression without Implementation
Cost
- Title(参考訳): 導入コストを伴わない転校学習回帰の一般授業
- Authors: Shunya Minami, Song Liu, Stephen Wu, Kenji Fukumizu, Ryo Yoshida
- Abstract要約: 本稿では,既存の回帰学習手法を統一し,拡張する新しいフレームワークを提案する。
様々な実データアプリケーションを用いて,その単純さ,汎用性,適用性を示す。
- 参考スコア(独自算出の注目度): 18.224991762123576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel framework that unifies and extends existing methods of
transfer learning (TL) for regression. To bridge a pretrained source model to
the model on a target task, we introduce a density-ratio reweighting function,
which is estimated through the Bayesian framework with a specific prior
distribution. By changing two intrinsic hyperparameters and the choice of the
density-ratio model, the proposed method can integrate three popular methods of
TL: TL based on cross-domain similarity regularization, a probabilistic TL
using the density-ratio estimation, and fine-tuning of pretrained neural
networks. Moreover, the proposed method can benefit from its simple
implementation without any additional cost; the regression model can be fully
trained using off-the-shelf libraries for supervised learning in which the
original output variable is simply transformed to a new output variable. We
demonstrate its simplicity, generality, and applicability using various real
data applications.
- Abstract(参考訳): 本稿では,既存の回帰学習手法を統一し,拡張する新しいフレームワークを提案する。
対象タスクにおける事前学習されたソースモデルをモデルにブリッジするために,事前分布を持つベイズフレームワークによって推定される密度比関数を導入する。
2つの内在的ハイパーパラメータを変更して密度比モデルを選択することにより、クロスドメイン類似性正規化に基づくTL、密度比推定を用いた確率的TL、事前訓練されたニューラルネットワークの微調整という3つの一般的なTLの方法を統合することができる。
さらに,本手法は,既存の出力変数が単純に新しい出力変数に変換されるような教師付き学習のためのオフ・ザ・シェルフ・ライブラリを用いて,回帰モデルを十分に訓練することができる。
様々な実データアプリケーションを用いて,その単純さ,汎用性,適用性を示す。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - TransFusion: Covariate-Shift Robust Transfer Learning for High-Dimensional Regression [11.040033344386366]
対象タスクの学習性能を限定的なサンプルで向上させるため, 新規な融合正規化器を用いた2段階の手法を提案する。
対象モデルの推定誤差に対して、漸近的境界が提供される。
提案手法を分散設定に拡張し,事前学習ファインタニング戦略を実現する。
論文 参考訳(メタデータ) (2024-04-01T14:58:16Z) - Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Engression: Extrapolation through the Lens of Distributional Regression [2.519266955671697]
我々は、エングレースと呼ばれるニューラルネットワークに基づく分布回帰手法を提案する。
エングレスモデル(engression model)は、適合した条件分布からサンプリングできるという意味で生成され、高次元結果にも適している。
一方、最小二乗法や量子回帰法のような従来の回帰手法は、同じ仮定の下では不十分である。
論文 参考訳(メタデータ) (2023-07-03T08:19:00Z) - Representation Transfer Learning via Multiple Pre-trained models for
Linear Regression [3.5788754401889014]
サンプルが少ないデータ領域(ターゲット)で線形回帰モデルを学習する問題を考察する。
学習を支援するために、私たちは、潜在的に異なるデータドメインでトレーニングされた事前訓練された回帰モデルセットを提供しています。
対象モデルを構築するための表現伝達に基づく学習手法を提案する。
論文 参考訳(メタデータ) (2023-05-25T19:35:24Z) - Tailoring Language Generation Models under Total Variation Distance [55.89964205594829]
ニューラルネットワーク生成の標準パラダイムは、最適化方法として最大推定(MLE)を採用する。
言語生成に適用するための実践的境界を開発する。
本稿では,TVD推定のトレードオフのバランスをとるためのTaiLr の目標について紹介する。
論文 参考訳(メタデータ) (2023-02-26T16:32:52Z) - Variational Inference with NoFAS: Normalizing Flow with Adaptive
Surrogate for Computationally Expensive Models [7.217783736464403]
マルコフ連鎖モンテカルロのようなサンプリングに基づくアプローチの使用は、それぞれの可能性評価が計算的に高価であるときに難解になる可能性がある。
変分推論と正規化フローを組み合わせた新しいアプローチは、潜在変数空間の次元と線形にしか成長しない計算コストによって特徴づけられる。
本稿では,ニューラルネットワークサロゲートモデルの正規化フローパラメータと重みを代わりに更新する最適化戦略である,適応サロゲートを用いた正規化フロー(NoFAS)を提案する。
論文 参考訳(メタデータ) (2021-08-28T14:31:45Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。