論文の概要: Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction
- arxiv url: http://arxiv.org/abs/2004.13930v1
- Date: Wed, 29 Apr 2020 02:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 12:59:26.042998
- Title: Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction
- Title(参考訳): タスク機能協調学習とパーソナライズされた属性予測への応用
- Authors: Zhiyong Yang, Qianqian Xu, Xiaochun Cao, Qingming Huang
- Abstract要約: 本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
- 参考スコア(独自算出の注目度): 166.87111665908333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an effective learning paradigm against insufficient training samples,
Multi-Task Learning (MTL) encourages knowledge sharing across multiple related
tasks so as to improve the overall performance. In MTL, a major challenge
springs from the phenomenon that sharing the knowledge with dissimilar and hard
tasks, known as negative transfer, often results in a worsened performance.
Though a substantial amount of studies have been carried out against the
negative transfer, most of the existing methods only model the transfer
relationship as task correlations, with the transfer across features and tasks
left unconsidered. Different from the existing methods, our goal is to
alleviate negative transfer collaboratively across features and tasks. To this
end, we propose a novel multi-task learning method called Task-Feature
Collaborative Learning (TFCL). Specifically, we first propose a base model with
a heterogeneous block-diagonal structure regularizer to leverage the
collaborative grouping of features and tasks and suppressing inter-group
knowledge sharing. We then propose an optimization method for the model.
Extensive theoretical analysis shows that our proposed method has the following
benefits: (a) it enjoys the global convergence property and (b) it provides a
block-diagonal structure recovery guarantee. As a practical extension, we
extend the base model by allowing overlapping features and differentiating the
hard tasks. We further apply it to the personalized attribute prediction
problem with fine-grained modeling of user behaviors. Finally, experimental
results on both simulated dataset and real-world datasets demonstrate the
effectiveness of our proposed method
- Abstract(参考訳): 不十分なトレーニングサンプルに対する効果的な学習パラダイムとして、マルチタスク学習(mtl)は、複数の関連するタスク間での知識共有を奨励し、全体的なパフォーマンスを向上させる。
mtlにおける大きな課題は、知識をネガティブトランスファーとして知られる、異質でハードなタスクと共有することがしばしばパフォーマンスを悪化させるという現象から生じている。
負の伝達に対するかなりの研究が行われてきたが、既存の手法のほとんどは、伝達関係をタスク相関としてモデル化するだけであり、特徴とタスク間の伝達は考慮されていない。
既存の方法とは異なり、当社の目標は機能やタスク間の負の転送を協調的に緩和することにあります。
そこで本研究では,TFCL(Task-Feature Collaborative Learning)と呼ばれるマルチタスク学習手法を提案する。
具体的には,まず,特徴と課題の協調的グループ化とグループ間知識共有の抑制のために,不均一なブロック対角構造正規化子を持つベースモデルを提案する。
次に,モデルに対する最適化手法を提案する。
広範な理論解析の結果,提案手法には次のような利点がある。
(a)グローバル収束特性を享受し、
(b)ブロック対角構造回復保証を提供する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
さらに、ユーザ行動のきめ細かいモデリングによるパーソナライズされた属性予測問題に適用する。
最後に,シミュレーションデータセットと実世界のデータセットの両方における実験結果から,提案手法の有効性を実証する。
関連論文リスト
- Improving General Text Embedding Model: Tackling Task Conflict and Data Imbalance through Model Merging [33.23758947497205]
高度な埋め込みモデルは、通常、大規模マルチタスクデータと複数のタスクをまたいだ共同トレーニングを用いて開発される。
これらの課題を克服するために、独立に訓練されたモデルを組み合わせて勾配の衝突を緩和し、データ分散のバランスをとるモデルマージングについて検討する。
本稿では,勾配降下を用いたタスクベクトル空間内の最適モデル組合せを効率的に探索する新たな手法であるSelf Positioningを提案する。
論文 参考訳(メタデータ) (2024-10-19T08:39:21Z) - Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - Modeling Output-Level Task Relatedness in Multi-Task Learning with Feedback Mechanism [7.479892725446205]
マルチタスク学習(MTL)は、異なるレベルで情報を共有することで複数のタスクを同時に学習するパラダイムである。
異なるタスクが相互に影響のある相関出力を生成する可能性があることを考慮し、後続情報をモデルに導入する。
我々は,MTLモデルにフィードバック機構を組み込むことで,あるタスクの出力が他のタスクの隠れ機能として機能する。
論文 参考訳(メタデータ) (2024-04-01T03:27:34Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Concrete Subspace Learning based Interference Elimination for Multi-task
Model Fusion [86.6191592951269]
一般的な事前訓練された大規模モデルから微調整されたマージングモデルは、様々なタスクに特化しているが、様々なタスクでうまく機能するマルチタスクモデルを構築するための安価でスケーラブルな戦略として実証されている。
本稿では、共通低次元部分空間を同定し、その共有情報トラック干渉問題を性能を犠牲にすることなく利用するための連続緩和(Concrete)部分空間学習法を提案する。
論文 参考訳(メタデータ) (2023-12-11T07:24:54Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Multi-Task Cooperative Learning via Searching for Flat Minima [8.835287696319641]
本稿では,MTLを多段最適化問題として定式化し,各タスクから協調的なアプローチで特徴を学習させることを提案する。
具体的には、他のタスクの学習したサブモデルを利用する代わりに、各タスクのサブモデルを更新する。
最適化時の負の伝達問題を緩和するため、現在の目的関数に対する平坦な最小値を求める。
論文 参考訳(メタデータ) (2023-09-21T14:00:11Z) - STG-MTL: Scalable Task Grouping for Multi-Task Learning Using Data Map [4.263847576433289]
MTL(Multi-Task Learning)は、従来のSTL(Single-Task Learning)よりも性能が向上し、普及した強力な技術である。
しかし、MTLは指数的なタスクグルーピング数が多いため、しばしば困難である。
本稿では,これらの課題に対処し,課題分類のためのスケーラブルでモジュール化されたソリューションを提供する新しいデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T03:54:26Z) - Task Aware Feature Extraction Framework for Sequential Dependence
Multi-Task Learning [1.0765359420035392]
我々は厳密な数学的観点から逐次依存型MLLを解析する。
逐次依存型MLLのためのタスク認識特徴抽出(TAFE)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-06T13:12:59Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。