論文の概要: Precise High-Dimensional Asymptotics for Quantifying Heterogeneous
Transfers
- arxiv url: http://arxiv.org/abs/2010.11750v3
- Date: Fri, 11 Aug 2023 01:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 18:21:44.458840
- Title: Precise High-Dimensional Asymptotics for Quantifying Heterogeneous
Transfers
- Title(参考訳): 不均質転移の定量化のための高精度高次元漸近力学
- Authors: Fan Yang, Hongyang R. Zhang, Sen Wu, Christopher R\'e, Weijie J. Su
- Abstract要約: 1つのタスクだけを学習するよりも、2つのタスクからのデータを組み合わせる方がよいのはいつでしょう?
本稿では,2つのタスクを持つ線形回帰設定において,ランダム行列理論を用いてこの問題に対処する。
- 参考スコア(独自算出の注目度): 34.40702005466919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of learning one task with samples from another task has received
much interest recently. In this paper, we ask a fundamental question: when is
combining data from two tasks better than learning one task alone? Intuitively,
the transfer effect from one task to another task depends on dataset shifts
such as sample sizes and covariance matrices. However, quantifying such a
transfer effect is challenging since we need to compare the risks between joint
learning and single-task learning, and the comparative advantage of one over
the other depends on the exact kind of dataset shift between both tasks. This
paper uses random matrix theory to tackle this challenge in a linear regression
setting with two tasks. We give precise asymptotics about the excess risks of
some commonly used estimators in the high-dimensional regime, when the sample
sizes increase proportionally with the feature dimension at fixed ratios. The
precise asymptotics is provided as a function of the sample sizes and
covariate/model shifts, which can be used to study transfer effects: In a
random-effects model, we give conditions to determine positive and negative
transfers between learning two tasks versus single-task learning; the
conditions reveal intricate relations between dataset shifts and transfer
effects. Simulations justify the validity of the asymptotics in finite
dimensions. Our analysis examines several functions of two different sample
covariance matrices, revealing some estimates that generalize classical results
in the random matrix theory literature, which may be of independent interest.
- Abstract(参考訳): あるタスクを別のタスクからサンプルで学習する問題は、最近大きな関心を集めている。
本稿では,1つのタスクのみを学習するよりも,2つのタスクからのデータを統合する方がよいのか,という基本的な質問を行う。
直感的には、あるタスクから別のタスクへの転送効果は、サンプルサイズや共分散行列などのデータセットシフトに依存する。
しかし,共同学習と単タスク学習のリスクを比較する必要があるため,このような伝達効果の定量化は困難である。
本稿では,ランダム行列理論を用いて2つのタスクからなる線形回帰系において,この課題に取り組む。
サンプルサイズが固定比で特徴次元に比例して増加するとき, 高次元状態においてよく用いられる推定器の過大なリスクについて, 正確な漸近性を与える。
ランダム・エフェクトモデルでは、2つのタスクの学習と1つのタスクの学習の間に正と負の伝達を決定する条件を与え、データセットのシフトと転送効果の間の複雑な関係を明らかにする。
シミュレーションは有限次元における漸近性の妥当性を正当化する。
本稿では2つの異なるサンプル共分散行列のいくつかの関数を解析し、古典的な結果をランダム行列理論の文献に一般化するいくつかの推定値を明らかにする。
関連論文リスト
- Knowledge Composition using Task Vectors with Learned Anisotropic Scaling [51.4661186662329]
本稿では,パラメータブロックと異なる学習係数を線形に組み合わせ,タスクベクトルレベルでの異方性スケーリングを実現するアルゴリズムであるaTLASを紹介する。
このような線形結合は事前学習されたモデルの低内在性を明示的に利用しており、学習可能なパラメータは数係数のみであることを示す。
本稿では,タスク算術,少数ショット認識,テスト時間適応において,教師なしあるいは教師なしの目的を用いた手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-07-03T07:54:08Z) - The Joint Effect of Task Similarity and Overparameterization on
Catastrophic Forgetting -- An Analytical Model [36.766748277141744]
継続的な学習では、破滅的な忘れはタスクの複数の側面に影響される。
これまでの研究は、タスクの類似性やパラメータ化の過度な影響によって、忘れることがどう影響するかを別々に分析してきた。
本稿では,タスクの類似性と過剰なパラメータ化が,分析可能なモデルにおける記憶にどう影響するかを考察する。
論文 参考訳(メタデータ) (2024-01-23T10:16:44Z) - A Semiparametric Efficient Approach To Label Shift Estimation and
Quantification [0.0]
本稿では、応答変数の分布の変化を推定するSELSEと呼ばれる新しい手順を提案する。
SELSEの正規化誤差は、その家系の他のどのアルゴリズムよりも最小の分散行列を持つことを示す。
論文 参考訳(メタデータ) (2022-11-07T07:49:29Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - A Bayesian Approach to (Online) Transfer Learning: Theory and Algorithms [6.193838300896449]
本稿では,パラメトリック統計モデルを用いたベイズ的観点からの移動学習について検討する。
具体的には,移動学習問題,即時学習,オンライン学習,時変学習の3つの変種について検討する。
各問題に対して、適切な目的関数を定義し、学習性能の正確な表現または上限を提供する。
例は、小さなサンプルサイズであっても、導出した境界が正確であることを示している。
論文 参考訳(メタデータ) (2021-09-03T08:43:29Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Double Double Descent: On Generalization Errors in Transfer Learning
between Linear Regression Tasks [30.075430694663293]
本稿では,2つの線形回帰問題間の伝達学習過程について検討する。
本稿では,対象タスクのパラメータのサブセットを関連するソースタスクで学習した値に制約するパラメータ転送機構について検討する。
論文 参考訳(メタデータ) (2020-06-12T08:42:14Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。