論文の概要: A Comprehensive Evaluation of Multi-task Learning and Multi-task
Pre-training on EHR Time-series Data
- arxiv url: http://arxiv.org/abs/2007.10185v1
- Date: Mon, 20 Jul 2020 15:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 12:45:45.581849
- Title: A Comprehensive Evaluation of Multi-task Learning and Multi-task
Pre-training on EHR Time-series Data
- Title(参考訳): EHR時系列データを用いたマルチタスク学習とマルチタスク事前学習の総合評価
- Authors: Matthew B.A. McDermott (1), Bret Nestor (2), Evan Kim (1), Wancong
Zhang (3), Anna Goldenberg (2, 4, 5), Peter Szolovits (1), Marzyeh Ghassemi
(2, 4) ((1) CSAIL, MIT, (2) University of Toronto, (3) NYU, (4) Vector
Institute, (5) SickKids)
- Abstract要約: MTL(Multi-task Learning)は、多くのタスクにまたがる情報を活用することにより、モデルパフォーマンスの向上を目的とした機械学習技術である。
本研究では,EMHの時系列データに基づいて,タスクのバッテリにまたがるMLLについて検討する。
MTLは一般的な負の伝達に苦しむが、MTL事前学習と単一タスクの微調整を併用することで大きな効果が得られている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task learning (MTL) is a machine learning technique aiming to improve
model performance by leveraging information across many tasks. It has been used
extensively on various data modalities, including electronic health record
(EHR) data. However, despite significant use on EHR data, there has been little
systematic investigation of the utility of MTL across the diverse set of
possible tasks and training schemes of interest in healthcare. In this work, we
examine MTL across a battery of tasks on EHR time-series data. We find that
while MTL does suffer from common negative transfer, we can realize significant
gains via MTL pre-training combined with single-task fine-tuning. We
demonstrate that these gains can be achieved in a task-independent manner and
offer not only minor improvements under traditional learning, but also notable
gains in a few-shot learning context, thereby suggesting this could be a
scalable vehicle to offer improved performance in important healthcare
contexts.
- Abstract(参考訳): MTL(Multi-task Learning)は、多くのタスクにまたがる情報を活用することにより、モデルパフォーマンスを改善する機械学習技術である。
電子健康記録(EHR)データなど、さまざまなデータモダリティで広く使用されている。
しかし, EHRデータにかなりの利用があるにもかかわらず, 医療分野の様々なタスクやトレーニングスキームにおいて, MTLの有用性について体系的な調査は行われていない。
本研究では,EMH時系列データに基づくタスクの電池間MTLについて検討する。
MTLは一般的な負の伝達に苦しむが、MTL事前学習と単一タスクの微調整を併用することで大きな効果が得られる。
これらの成果をタスクに依存しない方法で達成できることを実証し,従来の学習下でのマイナーな改善だけでなく,少数の学習コンテキストでも注目すべき改善を提供する。
関連論文リスト
- Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Equitable Multi-task Learning [18.65048321820911]
マルチタスク学習(MTL)は、CV、NLP、IRといった様々な研究領域で大きな成功を収めている。
本稿では,EMTLという新しいマルチタスク最適化手法を提案する。
本手法は,2つの研究領域の公開ベンチマークデータセットにおいて,最先端の手法よりも安定して性能を向上する。
論文 参考訳(メタデータ) (2023-06-15T03:37:23Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - When Does Aggregating Multiple Skills with Multi-Task Learning Work? A
Case Study in Financial NLP [22.6364117325639]
マルチタスク学習(MTL)は、複数のタスクからデータと知識を活用することにより、よりよいモデルを実現することを目的としている。
以上の結果から,MTLの成功の鍵は,スキル多様性,タスク間の関連性,集約サイズと共有能力の選択にあることが示唆された。
論文 参考訳(メタデータ) (2023-05-23T12:37:14Z) - Multi-Task Instruction Tuning of LLaMa for Specific Scenarios: A
Preliminary Study on Writing Assistance [60.40541387785977]
小さな基礎モデルは、命令駆動データを用いて微調整された場合、多様なタスクに対処する際、顕著な習熟度を示すことができる。
本研究は, 汎用的な指導よりも, 1つないし数つの特定のタスクに主眼を置いている, 実践的な問題設定について検討する。
実験結果から,命令データに対する微調整LLaMAは,タスクの記述能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-05-22T16:56:44Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - When to Use Multi-Task Learning vs Intermediate Fine-Tuning for
Pre-Trained Encoder Transfer Learning [15.39115079099451]
近年,自然言語処理における伝達学習(TL)への関心が高まっている。
微調整中に複数の教師付きデータセットを使用するための3つの主要な戦略が登場した。
GLUEデータセットの包括的解析において,3つのTL手法を比較した。
論文 参考訳(メタデータ) (2022-05-17T06:48:45Z) - Task Uncertainty Loss Reduce Negative Transfer in Asymmetric Multi-task
Feature Learning [0.0]
マルチタスク学習(MTL)は、シングルタスク学習(STL)と比較して全体的なタスクパフォーマンスを向上させることができるが、負の転送(NT)を隠すことができる。
非対称マルチタスク特徴学習(AMTFL)は、損失値の高いタスクが他のタスクを学習するための特徴表現に与える影響を小さくすることで、この問題に対処しようとするアプローチである。
2つのデータセット (画像認識と薬理ゲノミクス) におけるntの例を示し, 課題間の相対的信頼度を捉え, タスク損失の重み付けを行うことにより, この課題に挑戦する。
論文 参考訳(メタデータ) (2020-12-17T13:30:45Z) - A Brief Review of Deep Multi-task Learning and Auxiliary Task Learning [0.0]
マルチタスク学習(MTL)は、複数の学習タスクを同時に最適化する。
パフォーマンスを高めるために、補助的なタスクをメインタスクに追加することができる。
論文 参考訳(メタデータ) (2020-07-02T14:23:39Z) - Learning to Multi-Task Learn for Better Neural Machine Translation [53.06405021125476]
マルチタスク学習は、言語関連バイアスをニューラルネットワーク翻訳モデルに注入するエレガントなアプローチである。
本稿では,学習スケジュールの学習,マルチタスク学習のための新しいフレームワークを提案する。
実験の結果、自動学習したトレーニングスケジューラがベストと競い合っており、最大1.1BLEUスコアが向上している。
論文 参考訳(メタデータ) (2020-01-10T03:12:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。