論文の概要: Highly Scalable Task Grouping for Deep Multi-Task Learning in Prediction
of Epigenetic Events
- arxiv url: http://arxiv.org/abs/2209.11892v1
- Date: Sat, 24 Sep 2022 00:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 16:50:56.776305
- Title: Highly Scalable Task Grouping for Deep Multi-Task Learning in Prediction
of Epigenetic Events
- Title(参考訳): エピジェネティック事象予測における深部マルチタスク学習のための高スケーラブルタスクグループ化
- Authors: Mohammad Shiri and Jiangwen Sun
- Abstract要約: 負の転送に対処する高度にスケーラブルなタスクグループ化フレームワークを提案する。
提案手法は,タスク固有分類ヘッドに関連するネットワーク重みを利用する。
367個のエピジェネティックプロファイルからなるデータセットを用いて,提案手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks trained for predicting cellular events from DNA sequence
have become emerging tools to help elucidate the biological mechanism
underlying the associations identified in genome-wide association studies. To
enhance the training, multi-task learning (MTL) has been commonly exploited in
previous works where trained networks were needed for multiple profiles
differing in either event modality or cell type. All existing works adopted a
simple MTL framework where all tasks share a single feature extraction network.
Such a strategy even though effective to certain extent leads to substantial
negative transfer, meaning the existence of large portion of tasks for which
models obtained through MTL perform worse than those by single task learning.
There have been methods developed to address such negative transfer in other
domains, such as computer vision. However, these methods are generally
difficult to scale up to handle large amount of tasks. In this paper, we
propose a highly scalable task grouping framework to address negative transfer
by only jointly training tasks that are potentially beneficial to each other.
The proposed method exploits the network weights associated with task specific
classification heads that can be cheaply obtained by one-time joint training of
all tasks. Our results using a dataset consisting of 367 epigenetic profiles
demonstrate the effectiveness of the proposed approach and its superiority over
baseline methods.
- Abstract(参考訳): DNA配列から細胞イベントを予測するために訓練されたディープニューラルネットワークは、ゲノムワイド・アソシエーション研究で同定された関連に基づく生物学的メカニズムの解明に役立っている。
トレーニングを強化するために、MTL(Multi-task Learning)は、イベントのモダリティやセルタイプが異なる複数のプロファイルに対して、トレーニングされたネットワークを必要とする以前の研究で一般的に利用されている。
既存の作業はすべて、すべてのタスクが単一機能抽出ネットワークを共有するシンプルなMTLフレームワークを採用している。
このような戦略はある程度有効であっても、かなりの負の移動をもたらす。つまり、MTLによって得られたモデルが単一タスク学習によって得られるものよりも悪いタスクが存在することを意味する。
コンピュータビジョンなど他の領域での負の転送に対処する手法が開発されている。
しかし、これらの手法は一般に、大量のタスクを処理するためにスケールアップが困難である。
本稿では,互いに有益であるタスクを共同でトレーニングすることで,負の転送に対処する,高度にスケーラブルなタスクグループ化フレームワークを提案する。
提案手法は,全タスクのワンタイム共同訓練により安価に得られるタスク特定分類ヘッドに関連するネットワーク重みを活用できる。
367のエピジェネティックプロファイルからなるデータセットを用いた結果から,提案手法の有効性とベースライン法に対する優位性が示された。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - STG-MTL: Scalable Task Grouping for Multi-Task Learning Using Data Map [4.263847576433289]
MTL(Multi-Task Learning)は、従来のSTL(Single-Task Learning)よりも性能が向上し、普及した強力な技術である。
しかし、MTLは指数的なタスクグルーピング数が多いため、しばしば困難である。
本稿では,これらの課題に対処し,課題分類のためのスケーラブルでモジュール化されたソリューションを提供する新しいデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T03:54:26Z) - An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems [4.675744559395732]
マルチタスク学習は、複数のタスクから学習できるモデルが知識伝達によってより良い品質と効率を達成すると仮定する。
最先端のMLモデルは、タスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
本稿では,大規模マルチタスクモデルを生成でき,新しいタスクの動的かつ連続的な追加を支援する進化的手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T13:10:47Z) - Efficiently Identifying Task Groupings for Multi-Task Learning [55.80489920205404]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
マルチタスク学習モデルにおいて、どのタスクを一緒にトレーニングすべきかを選択するアプローチを提案する。
本手法は,全タスクを協調学習し,タスクの勾配が他のタスクの損失に影響を及ぼす影響を定量化する。
論文 参考訳(メタデータ) (2021-09-10T02:01:43Z) - Distribution Matching for Heterogeneous Multi-Task Learning: a
Large-scale Face Study [75.42182503265056]
マルチタスク学習は、共有学習アルゴリズムによって複数のタスクを共同で学習する方法論として登場した。
我々は異種mtlに対処し,検出,分類,回帰問題を同時に解決する。
大規模な顔分析のための最初のフレームワークであるFaceBehaviorNetを構築し、すべての顔行動タスクを共同で学習する。
論文 参考訳(メタデータ) (2021-05-08T22:26:52Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。