論文の概要: Feasibility and Transferability of Transfer Learning: A Mathematical
Framework
- arxiv url: http://arxiv.org/abs/2301.11542v1
- Date: Fri, 27 Jan 2023 05:54:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 16:21:50.045366
- Title: Feasibility and Transferability of Transfer Learning: A Mathematical
Framework
- Title(参考訳): 伝達学習の可能性と伝達可能性--数学的枠組み
- Authors: Haoyang Cao, Haotian Gu, Xin Guo, Mathieu Rosenbaum
- Abstract要約: 我々は、転送学習の一般的な手順のための数学的枠組みを初めて構築する。
また、トランスファー学習のトランスファー可能性を評価するために、トランスファーリスクという新しい概念を提案する。
- 参考スコア(独自算出の注目度): 4.031388559887924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning is an emerging and popular paradigm for utilizing existing
knowledge from previous learning tasks to improve the performance of new ones.
Despite its numerous empirical successes, theoretical analysis for transfer
learning is limited. In this paper we build for the first time, to the best of
our knowledge, a mathematical framework for the general procedure of transfer
learning. Our unique reformulation of transfer learning as an optimization
problem allows for the first time, analysis of its feasibility. Additionally,
we propose a novel concept of transfer risk to evaluate transferability of
transfer learning. Our numerical studies using the Office-31 dataset
demonstrate the potential and benefits of incorporating transfer risk in the
evaluation of transfer learning performance.
- Abstract(参考訳): トランスファーラーニング(Transfer Learning)は、従来の学習タスクから既存の知識を活用して、新しい学習のパフォーマンスを向上させるための、新しくて一般的なパラダイムである。
その経験的成功にもかかわらず、伝達学習の理論解析は限られている。
本稿では, 転校学習の一般的な手順のための数学的枠組みである知識を最大限に活用するために, 初めて構築する。
最適化問題としてのトランスファー学習の独特な再構成は,その実現可能性の解析を初めて可能にする。
さらに,トランスファー学習のトランスファー可能性を評価するために,トランスファーリスクという新しい概念を提案する。
Office-31データセットを用いた数値実験により,伝達リスクを考慮した伝達学習性能評価の可能性とメリットが示された。
関連論文リスト
- Bayesian Transfer Learning [13.983016833412307]
トランスファーラーニング」は、関連分野のデータを活用することにより、関心領域における推論および/または予測精度の向上を目指す。
本稿では,新しい学習課題を導く上で,事前知識に基づく学習の概念と自然に相容れないにもかかわらず,比較的注意を払われたバイーシアン学習のアプローチを取り上げる。
本稿では,これらの手法がドメイン間の転送に最適な情報を見つける問題にどのように対処するかを論じる。
論文 参考訳(メタデータ) (2023-12-20T23:38:17Z) - Transfer Learning in Robotics: An Upcoming Breakthrough? A Review of Promises and Challenges [21.559563253625207]
トランスファーラーニング(Transfer Learning)は、真にインテリジェントなエンボディエージェントを追求する概念的なパラダイムである。
ロボット,タスク,環境といった重要な概念を考慮に入れた最初の分類法を提供する。
論文 参考訳(メタデータ) (2023-11-29T19:40:10Z) - Risk of Transfer Learning and its Applications in Finance [2.966069495345018]
本稿では,トランスファーリスクの新たな概念を提案し,その特性を分析し,トランスファー学習のトランスファー可能性を評価する。
数値計算の結果,伝達リスクと全体の伝達学習性能との間に強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-11-06T17:23:54Z) - Transfer Learning for Portfolio Optimization [4.031388559887924]
本稿では,トランスファー学習の最適化フレームワークとして,トランスファーリスク(transfer risk)という新しい概念を導入する。
クロスコンチネント転送,クロスセクタ転送,クロス周波数転送の3つのカテゴリから,一連の数値実験を行う。
論文 参考訳(メタデータ) (2023-07-25T14:48:54Z) - Feasibility of Transfer Learning: A Mathematical Framework [4.530876736231948]
それは、必要な数学的概念を確立し、伝達学習のための数学的枠組みを構築することから始まる。
そして、3段階の転送学習手順を最適化問題として特定・定式化し、実現可能性問題の解決を可能にする。
論文 参考訳(メタデータ) (2023-05-22T12:44:38Z) - Rethinking Importance Weighting for Transfer Learning [71.81262398144946]
教師あり学習における主要な前提は、トレーニングとテストデータが同じ確率分布に従うことである。
現実の機械学習タスクはますます複雑になりつつあるため、このような課題に対処するための新しいアプローチが検討されている。
論文 参考訳(メタデータ) (2021-12-19T14:35:25Z) - Meta-learning Transferable Representations with a Single Target Domain [46.83481356352768]
微調整とジョイントトレーニングは、下流タスクの精度を常に向上させるわけではない。
伝達可能な特徴を学習するためのメタ表現学習(MeRLin)を提案する。
MeRLinは、様々な実世界のビジョンとNLP転送学習ベンチマークにおいて、従来の最先端のトランスファー学習アルゴリズムを実証的に上回っている。
論文 参考訳(メタデータ) (2020-11-03T01:57:37Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - Transfer Heterogeneous Knowledge Among Peer-to-Peer Teammates: A Model
Distillation Approach [55.83558520598304]
本研究は, モデル蒸留により, 複数の学生間で経験と伝達値関数を再利用する新しい手法を提案する。
また、異種知識を活用するための効率的な通信プロトコルの設計方法について述べる。
提案するフレームワークである学習・指導カテゴリー強化は,学習の進捗を安定化・加速する上で有望な性能を示す。
論文 参考訳(メタデータ) (2020-02-06T11:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。