論文の概要: A Concise Review of Transfer Learning
- arxiv url: http://arxiv.org/abs/2104.02144v1
- Date: Mon, 5 Apr 2021 20:34:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:23:02.261907
- Title: A Concise Review of Transfer Learning
- Title(参考訳): 転校学習の簡潔なレビュー
- Authors: Abolfazl Farahani, Behrouz Pourshojae, Khaled Rasheed, Hamid R.
Arabnia
- Abstract要約: 転送学習は、他の関連するソースデータを適用することで、ターゲット学習者のパフォーマンスを高めることを目的としている。
従来の機械学習とデータマイニングのテクニックは、トレーニングとテストのデータは同じ特徴空間と分布から来ていると仮定する。
- 参考スコア(独自算出の注目度): 1.5771347525430772
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The availability of abundant labeled data in recent years led the researchers
to introduce a methodology called transfer learning, which utilizes existing
data in situations where there are difficulties in collecting new annotated
data. Transfer learning aims to boost the performance of a target learner by
applying another related source data. In contrast to the traditional machine
learning and data mining techniques, which assume that the training and testing
data lie from the same feature space and distribution, transfer learning can
handle situations where there is a discrepancy between domains and
distributions. These characteristics give the model the potential to utilize
the available related source data and extend the underlying knowledge to the
target task achieving better performance. This survey paper aims to give a
concise review of traditional and current transfer learning settings, existing
challenges, and related approaches.
- Abstract(参考訳): 近年、豊富なラベル付きデータが利用可能になったため、研究者らは、新しい注釈付きデータの収集が困難である状況で既存のデータを利用する転送学習という手法を導入した。
Transfer Learningは、他の関連するソースデータを適用することで、ターゲット学習者のパフォーマンスを高めることを目的としている。
従来の機械学習やデータマイニング技術とは対照的に、トレーニングとテストのデータは同じ特徴空間と分布から来ていると仮定すると、トランスファーラーニングはドメインと分布の間に相違がある状況を扱うことができる。
これらの特徴は、モデルに利用可能な関連するソースデータを利用する可能性を与え、基礎となる知識を目標タスクに拡張し、より良いパフォーマンスを実現する。
本研究は,従来の伝達学習設定や既存の課題,関連するアプローチについて,簡潔なレビューを行うことを目的としている。
関連論文リスト
- An information-Theoretic Approach to Semi-supervised Transfer Learning [33.89602092349131]
トランスファーラーニングは、ある"ソースデータセット"から別の"ターゲットデータセット"に情報を伝達することを可能にする
ソースとターゲットデータの分布の相違は一般的です。
本稿では,伝達学習の文脈におけるディープニューラルネットワークの性能解析のための新しい情報理論アプローチを提案する。
論文 参考訳(メタデータ) (2023-06-11T17:45:46Z) - Optimal transfer protocol by incremental layer defrosting [66.76153955485584]
トランスファーラーニングは、限られた量のデータでモデルトレーニングを可能にする強力なツールである。
最も単純な転送学習プロトコルは、データリッチなソースタスクで事前訓練されたネットワークの機能抽出層を凍結する。
このプロトコルは、しばしば準最適であり、事前学習されたネットワークの小さな部分を凍結したままにしておくと、最大の性能向上が達成される可能性がある。
論文 参考訳(メタデータ) (2023-03-02T17:32:11Z) - An Exploration of Data Efficiency in Intra-Dataset Task Transfer for
Dialog Understanding [65.75873687351553]
本研究は,対話領域における逐次移動学習における目標タスク訓練データ量の影響について検討する。
非意図的に、我々のデータでは、タスクトレーニングデータのサイズを目標とする場合、シーケンシャルトランスファーラーニングがトランスファーラーニングなしで同じモデルと比較した場合、最小限の効果が示される。
論文 参考訳(メタデータ) (2022-10-21T04:36:46Z) - A Data-Based Perspective on Transfer Learning [76.30206800557411]
転送学習におけるソースデータセットの合成の役割について,より詳しく検討する。
我々のフレームワークは、転送学習の脆さをピンポインティングするなど、新しい機能を生み出します。
論文 参考訳(メタデータ) (2022-07-12T17:58:28Z) - Probing transfer learning with a model of synthetic correlated datasets [11.53207294639557]
トランスファーラーニングはニューラルネットワークのサンプル効率を大幅に向上させることができる。
我々は、データセット間の相関をモデル化するためのフレームワークとして、合成データの解決可能なモデルを再考する。
本研究では,本モデルが実データを用いた伝達学習の多彩な特徴を捉えることができることを示す。
論文 参考訳(メタデータ) (2021-06-09T22:15:41Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - On the application of transfer learning in prognostics and health
management [0.0]
データ可用性は、研究者や業界の実践者がデータベースの機械学習に頼ることを奨励している。
ディープラーニング、障害診断と診断のためのモデル。
これらのモデルにはユニークな利点がありますが、そのパフォーマンスはトレーニングデータと、そのデータがテストデータをどのように表現しているかに大きく依存しています。
トランスファーラーニング(Transfer Learning)は、前回のトレーニングから学んだことの一部を新しいアプリケーションに転送することで、この問題を改善できるアプローチである。
論文 参考訳(メタデータ) (2020-07-03T23:35:18Z) - Uniform Priors for Data-Efficient Transfer [65.086680950871]
もっとも移動可能な特徴は埋め込み空間において高い均一性を有することを示す。
我々は、未確認のタスクやデータへの適応を容易にする能力の正規化を評価する。
論文 参考訳(メタデータ) (2020-06-30T04:39:36Z) - Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks [27.44348371795822]
転送学習の限界を特徴付けるための統計的ミニマックスフレームワークを開発する。
ラベル付きソース数とターゲットデータの関数として,任意のアルゴリズムで達成可能なターゲット一般化誤差に対して,低いバウンドを導出する。
論文 参考訳(メタデータ) (2020-06-16T22:49:26Z) - Unsupervised Transfer Learning with Self-Supervised Remedy [60.315835711438936]
手動ラベルのない新しいドメインにディープネットワークを一般化することは、ディープラーニングにとって難しい。
事前学習された知識は、学習されたドメインや新しいドメインについて強い仮定をしなければ、うまく伝達しない。
本研究は,ラベル付き関連ドメインからの知識伝達により,新規ドメインにおける未ラベル対象データの識別潜在空間を学習することを目的とする。
論文 参考訳(メタデータ) (2020-06-08T16:42:17Z) - A survey on domain adaptation theory: learning bounds and theoretical
guarantees [17.71634393160982]
この調査の主な目的は、特定の、そして間違いなく最も人気のある、移動学習のサブフィールドにおける最先端の理論的結果の概要を提供することである。
このサブフィールドでは、学習タスクは同じままで、トレーニングとテストデータの間でデータ分布が変化すると仮定される。
本稿では、ドメイン適応問題に関連する既存の結果の最新の記述について述べる。
論文 参考訳(メタデータ) (2020-04-24T16:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。