論文の概要: Multi-task Learning for Heterogeneous Data via Integrating Shared and Task-Specific Encodings
- arxiv url: http://arxiv.org/abs/2505.24281v1
- Date: Fri, 30 May 2025 06:58:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.81775
- Title: Multi-task Learning for Heterogeneous Data via Integrating Shared and Task-Specific Encodings
- Title(参考訳): 共有およびタスク特化エンコーディングの統合による異種データのマルチタスク学習
- Authors: Yang Sui, Qi Xu, Yang Bai, Annie Qu,
- Abstract要約: マルチタスク学習(MTL)は、複数の学習タスクを同時に処理する上で欠かせない機械学習ツールとなっている。
タスク毎に不均一な潜在因子空間を構築するためのデュアルエンコーダフレームワークを提案する。
本稿では,タスク固有およびタスク共有エンコーダと係数を交互に学習する統一アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 14.428156175364544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task learning (MTL) has become an essential machine learning tool for addressing multiple learning tasks simultaneously and has been effectively applied across fields such as healthcare, marketing, and biomedical research. However, to enable efficient information sharing across tasks, it is crucial to leverage both shared and heterogeneous information. Despite extensive research on MTL, various forms of heterogeneity, including distribution and posterior heterogeneity, present significant challenges. Existing methods often fail to address these forms of heterogeneity within a unified framework. In this paper, we propose a dual-encoder framework to construct a heterogeneous latent factor space for each task, incorporating a task-shared encoder to capture common information across tasks and a task-specific encoder to preserve unique task characteristics. Additionally, we explore the intrinsic similarity structure of the coefficients corresponding to learned latent factors, allowing for adaptive integration across tasks to manage posterior heterogeneity. We introduce a unified algorithm that alternately learns the task-specific and task-shared encoders and coefficients. In theory, we investigate the excess risk bound for the proposed MTL method using local Rademacher complexity and apply it to a new but related task. Through simulation studies, we demonstrate that the proposed method outperforms existing data integration methods across various settings. Furthermore, the proposed method achieves superior predictive performance for time to tumor doubling across five distinct cancer types in PDX data.
- Abstract(参考訳): マルチタスク学習(MTL)は、複数の学習タスクに同時に対処するために必要な機械学習ツールとなり、医療、マーケティング、バイオメディカルリサーチなどの分野に効果的に適用されてきた。
しかし,タスク間の効率的な情報共有を実現するためには,共有情報と異種情報の両方を活用することが重要である。
MTLの広範な研究にもかかわらず、分布や後続の不均一性を含む様々な形態の不均一性は重大な課題を呈している。
既存の手法は統合されたフレームワーク内でこのような不均一性に対処できないことが多い。
本稿では,タスク間の共通情報をキャプチャするタスク共有エンコーダと,タスク固有のエンコーダを組み込んで,タスク固有の特徴を保存し,タスク毎に不均一な潜在因子空間を構築するためのデュアルエンコーダフレームワークを提案する。
さらに、学習した潜在因子に対応する係数の固有類似性構造について検討し、タスク間での適応的な統合により、後続の不均一性を管理する。
本稿では,タスク固有およびタスク共有エンコーダと係数を交互に学習する統一アルゴリズムを提案する。
理論的には、局所ラデマッハ複雑性を用いたMTL法における過剰なリスクバウンドについて検討し、新しいタスクに適用する。
シミュレーション研究を通じて,提案手法が既存のデータ統合手法よりも優れていることを示す。
さらに,本手法はPDXデータにおいて,5種類の癌にまたがる腫瘍の2倍の時間に対する予測性能を向上する。
関連論文リスト
- Multi-task Learning for Heterogeneous Multi-source Block-Wise Missing Data [14.428156175364544]
マルチタスク学習(MTL)は、複数の学習タスクを同時に解決するための命令型機械学習ツールとして登場した。
様々なタスクにまたがる情報を効果的に借用するためには、均質情報と異質情報の両方を活用することが不可欠である。
論文 参考訳(メタデータ) (2025-05-30T09:52:03Z) - A Multitask Deep Learning Model for Classification and Regression of Hyperspectral Images: Application to the large-scale dataset [44.94304541427113]
ハイパースペクトル画像上で複数の分類タスクと回帰タスクを同時に行うマルチタスク深層学習モデルを提案する。
我々は、TAIGAと呼ばれる大規模なハイパースペクトルデータセットに対するアプローチを検証した。
結果の総合的定性的および定量的分析により,提案手法が他の最先端手法よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2024-07-23T11:14:54Z) - Towards Multi-Objective High-Dimensional Feature Selection via
Evolutionary Multitasking [63.91518180604101]
本稿では,高次元特徴選択問題,すなわちMO-FSEMTのための新しいEMTフレームワークを開発する。
タスク固有の知識伝達機構は、各タスクの利点情報を活用するように設計され、高品質なソリューションの発見と効果的な伝達を可能にする。
論文 参考訳(メタデータ) (2024-01-03T06:34:39Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Semi-supervised Multi-task Learning for Semantics and Depth [88.77716991603252]
MTL(Multi-Task Learning)は、関連するタスク間で表現を共有することで、モデル一般化を強化することを目的としている。
そこで本研究では,異なるデータセットから利用可能な監視信号を活用するために,半教師付きマルチタスク学習(MTL)手法を提案する。
本稿では,データセット間の整合性の問題を軽減するために,様々なアライメントの定式化を施したドメイン認識識別器構造を提案する。
論文 参考訳(メタデータ) (2021-10-14T07:43:39Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。