論文の概要: Task Prototype-Based Knowledge Retrieval for Multi-Task Learning from Partially Annotated Data
- arxiv url: http://arxiv.org/abs/2601.07474v1
- Date: Mon, 12 Jan 2026 12:27:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.377407
- Title: Task Prototype-Based Knowledge Retrieval for Multi-Task Learning from Partially Annotated Data
- Title(参考訳): 部分注釈付きデータからのマルチタスク学習のためのタスクプロトタイプに基づく知識検索
- Authors: Youngmin Oh, Hyung-Il Kim, Jung Uk Kim,
- Abstract要約: マルチタスク学習(MTL)は、自律運転やロボット工学といった現実の応用において重要である。
部分的にラベル付けされたMTLの既存の方法は、通常、ラベル付けされていないタスクからの予測に依存する。
本研究では,未ラベルタスクからの予測に頼るのではなく,堅牢なMLLを実現するためのプロトタイプベースの知識検索フレームワークを提案する。
- 参考スコア(独自算出の注目度): 38.55691652000724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task learning (MTL) is critical in real-world applications such as autonomous driving and robotics, enabling simultaneous handling of diverse tasks. However, obtaining fully annotated data for all tasks is impractical due to labeling costs. Existing methods for partially labeled MTL typically rely on predictions from unlabeled tasks, making it difficult to establish reliable task associations and potentially leading to negative transfer and suboptimal performance. To address these issues, we propose a prototype-based knowledge retrieval framework that achieves robust MTL instead of relying on predictions from unlabeled tasks. Our framework consists of two key components: (1) a task prototype embedding task-specific characteristics and quantifying task associations, and (2) a knowledge retrieval transformer that adaptively refines feature representations based on these associations. To achieve this, we introduce an association knowledge generating (AKG) loss to ensure the task prototype consistently captures task-specific characteristics. Extensive experiments demonstrate the effectiveness of our framework, highlighting its potential for robust multi-task learning, even when only a subset of tasks is annotated.
- Abstract(参考訳): マルチタスク学習(MTL)は、自律運転やロボット工学といった現実世界の応用において重要であり、多様なタスクの同時処理を可能にする。
しかしながら、全てのタスクに対して完全な注釈付きデータを取得することは、ラベリングコストのために現実的ではない。
部分的にラベル付けされたMLLの既存の手法は、通常、ラベル付けされていないタスクからの予測に依存しており、信頼性の高いタスクアソシエーションを確立することは困難であり、潜在的に負の転送や準最適性能につながる可能性がある。
これらの課題に対処するために,未ラベルタスクからの予測に頼るのではなく,堅牢なMLLを実現するプロトタイプベースの知識検索フレームワークを提案する。
本フレームワークは,(1)タスク固有の特徴を埋め込んだタスクプロトタイプと,(2)これらの関連性に基づいて特徴表現を適応的に洗練する知識検索変換器とから構成される。
これを実現するために,タスクのプロトタイプがタスク固有の特徴を確実に捉えるために,アソシエーション知識生成(AKG)損失を導入する。
大規模な実験は,タスクのサブセットにアノテートした場合でも,堅牢なマルチタスク学習の可能性を強調し,フレームワークの有効性を実証する。
関連論文リスト
- Layer-Aware Task Arithmetic: Disentangling Task-Specific and Instruction-Following Knowledge [12.367471198090655]
Task Arithmetic (TA)は、微調整から派生したタスクベクトルを組み合わせることで、マルチタスク学習とタスク忘れを可能にするが、一般的な指示追従行動からタスク固有の知識を分離するのに苦労する。
本稿では,命令フォローやタスク固有のコンポーネントとのアライメントに基づいて,階層固有の重みをタスクベクトルに割り当てる新しい手法であるLayer-Aware Task Arithmetic (LATA)を提案する。
論文 参考訳(メタデータ) (2025-02-27T15:22:14Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Multi-Task Meta Learning: learn how to adapt to unseen tasks [4.287114092271669]
本研究は,Multi-Task Learning(MTL)とメタラーニングという2つの学習パラダイムを統合する,MTML(Multi-task Meta Learning)を提案する。
基本的な考え方はマルチタスクモデルをトレーニングすることであり、例えば、目に見えないタスクを導入すると、より少ないステップで学習できると同時に、パフォーマンスを従来の単一タスク学習と同程度に向上させることができる。
MTMLは、NYU-v2データセットの4つのタスクのうち3つと、タスクノミーデータセットの4つのうち2つのタスクに対して、最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-10-13T12:59:54Z) - Learning Multi-Tasks with Inconsistent Labels by using Auxiliary Big
Task [24.618094251341958]
マルチタスク学習は,タスク間の共通知識の伝達と活用により,モデルの性能を向上させることを目的とする。
本稿では,これらの課題をカバーするために,学習した補助的大タスクから豊富な情報と十分な数のクラスを両立させることにより,これらの課題を学習するための枠組みを提案する。
実験により, 現状のアプローチと比較し, その有効性を示した。
論文 参考訳(メタデータ) (2022-01-07T02:46:47Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Distribution Matching for Heterogeneous Multi-Task Learning: a
Large-scale Face Study [75.42182503265056]
マルチタスク学習は、共有学習アルゴリズムによって複数のタスクを共同で学習する方法論として登場した。
我々は異種mtlに対処し,検出,分類,回帰問題を同時に解決する。
大規模な顔分析のための最初のフレームワークであるFaceBehaviorNetを構築し、すべての顔行動タスクを共同で学習する。
論文 参考訳(メタデータ) (2021-05-08T22:26:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。