論文の概要: When & How to Transfer with Transfer Learning
- arxiv url: http://arxiv.org/abs/2211.04347v1
- Date: Tue, 8 Nov 2022 16:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:15:59.839602
- Title: When & How to Transfer with Transfer Learning
- Title(参考訳): 転校学習における転校時期と転校方法
- Authors: Adrian Tormos, Dario Garcia-Gasulla, Victor Gimenez-Abalos and Sergio
Alvarez-Napagao
- Abstract要約: ディープラーニングでは、画像関連タスクを扱う際には、転送学習(TL)が事実上のアプローチになっている。
深層表現を再利用することにより、TLは、限られたデータ可用性、限られた計算資源、および/または人間の専門家への限られたアクセスを持つドメインでの深部モデルの使用を可能にする。
本稿では,TLを実験的に評価し,性能,環境フットプリント,人的時間,計算要件に関するトレードオフについて検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In deep learning, transfer learning (TL) has become the de facto approach
when dealing with image related tasks. Visual features learnt for one task have
been shown to be reusable for other tasks, improving performance significantly.
By reusing deep representations, TL enables the use of deep models in domains
with limited data availability, limited computational resources and/or limited
access to human experts. Domains which include the vast majority of real-life
applications. This paper conducts an experimental evaluation of TL, exploring
its trade-offs with respect to performance, environmental footprint, human
hours and computational requirements. Results highlight the cases were a cheap
feature extraction approach is preferable, and the situations where an
expensive fine-tuning effort may be worth the added cost. Finally, a set of
guidelines on the use of TL are proposed.
- Abstract(参考訳): ディープラーニングでは、画像関連タスクを扱う場合、転送学習(tl)が事実上のアプローチになっている。
あるタスクで学習した視覚機能は、他のタスクで再利用可能であることが示され、パフォーマンスが大幅に向上した。
ディープ表現を再利用することで、tlはデータ可用性の制限、計算リソースの制限、人間エキスパートへのアクセスの制限のあるドメインでのディープモデルの使用を可能にする。
現実のアプリケーションの大部分を含むドメイン。
本稿では,tlを実験的に評価し,その性能,環境負荷,人的時間および計算要求に関するトレードオフについて検討する。
結果は,安価な機能抽出アプローチが望ましいこと,高価な微調整作業が追加コストに値する状況であることを強調した。
最後に、tlの使用に関する一連のガイドラインを提案する。
関連論文リスト
- Towards Sample-Efficiency and Generalization of Transfer and Inverse Reinforcement Learning: A Comprehensive Literature Review [50.67937325077047]
本稿では,転送および逆強化学習(T-IRL)によるRLアルゴリズムのサンプル効率と一般化を実現するための総合的なレビューを行う。
以上の結果から,最近の研究成果の大部分は,人間のループとシム・トゥ・リアル戦略を活用することで,上記の課題に対処していることが示唆された。
IRL構造の下では、経験の少ない移行と、そのようなフレームワークのマルチエージェントおよびマルチインテンション問題への拡張を必要とするトレーニングスキームが近年研究者の優先事項となっている。
論文 参考訳(メタデータ) (2024-11-15T15:18:57Z) - Mixing It Up: The Cocktail Effect of Multi-Task Fine-Tuning on LLM Performance -- A Case Study in Finance [0.32985979395737774]
金融を含むドメイン固有の文脈における大規模言語モデル(LLM)の適用について検討する。
ターゲットタスクのみを微調整することが、必ずしも最も効果的な戦略であるとは限らない。
代わりに、マルチタスクの微調整はパフォーマンスを大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-01T22:35:56Z) - An Experimental Design Framework for Label-Efficient Supervised Finetuning of Large Language Models [55.01592097059969]
命令データセットの監視された微調整は、目覚ましいゼロショットの一般化能力を達成する上で重要な役割を担っている。
アクティブラーニングは、未ラベルのプールからアノテートするサンプルの有用なサブセットを特定するのに効果的である。
本研究では,能動学習の計算ボトルネックを回避するための実験設計を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:56:54Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - Generalizing LTL Instructions via Future Dependent Options [7.8578244861940725]
本稿では,学習効率と最適性を向上した新しいマルチタスクアルゴリズムを提案する。
将来のサブゴールを満たす報酬をより効率的に伝達するために,サブゴール列に条件付きマルチステップ関数を訓練することを提案する。
3つの異なる領域の実験において、提案アルゴリズムにより訓練されたエージェントの一般化能力を評価する。
論文 参考訳(メタデータ) (2022-12-08T21:44:18Z) - Deep transfer learning for partial differential equations under
conditional shift with DeepONet [0.0]
深層演算子ネットワーク(DeepONet)を用いた条件シフト下でのタスク固有学習のための新しいTLフレームワークを提案する。
条件埋め込み演算子理論に触発されて、ソース領域とターゲット特徴領域の間の統計的距離を測定する。
提案するTLフレームワークは,ソースドメインとターゲットドメインの間に大きな違いがあるにも関わらず,高速かつ効率的なマルチタスク演算子学習を可能にする。
論文 参考訳(メタデータ) (2022-04-20T23:23:38Z) - TRAIL: Near-Optimal Imitation Learning with Suboptimal Data [100.83688818427915]
オフラインデータセットを使用してファクタードトランジションモデルを学習するトレーニング目標を提案する。
我々の理論的分析は、学習された潜在行動空間が下流模倣学習のサンプル効率を高めることを示唆している。
実際に潜伏行動空間を学習するために、エネルギーベースの遷移モデルを学ぶアルゴリズムTRAIL(Transition-Reparametrized Actions for Imitation Learning)を提案する。
論文 参考訳(メタデータ) (2021-10-27T21:05:00Z) - Exploring and Predicting Transferability across NLP Tasks [115.6278033699853]
本研究では,33のNLPタスク間の伝達可能性について検討した。
以上の結果から,転帰学習は従来考えられていたよりも有益であることが示唆された。
また,特定の対象タスクに対して最も転送可能なソースタスクを予測するために使用できるタスク埋め込みも開発した。
論文 参考訳(メタデータ) (2020-05-02T09:39:36Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。