論文の概要: Interpretable MTL from Heterogeneous Domains using Boosted Tree
- arxiv url: http://arxiv.org/abs/2003.07077v1
- Date: Mon, 16 Mar 2020 08:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 02:36:30.187921
- Title: Interpretable MTL from Heterogeneous Domains using Boosted Tree
- Title(参考訳): ブーストツリーを用いた不均質領域からの解釈可能なMTL
- Authors: Ya-Lin Zhang and Longfei Li
- Abstract要約: マルチタスク学習(MTL)は,複数のタスクの一般化性能の向上を目的としている。
本稿では,増木理論に倣って,二段階法を提案する。
ベンチマークと実世界のデータセットによる実験により,提案手法の有効性が検証された。
- 参考スコア(独自算出の注目度): 8.095372074268685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task learning (MTL) aims at improving the generalization performance of
several related tasks by leveraging useful information contained in them.
However, in industrial scenarios, interpretability is always demanded, and the
data of different tasks may be in heterogeneous domains, making the existing
methods unsuitable or unsatisfactory. In this paper, following the philosophy
of boosted tree, we proposed a two-stage method. In stage one, a common model
is built to learn the commonalities using the common features of all instances.
Different from the training of conventional boosted tree model, we proposed a
regularization strategy and an early-stopping mechanism to optimize the
multi-task learning process. In stage two, started by fitting the residual
error of the common model, a specific model is constructed with the
task-specific instances to further boost the performance. Experiments on both
benchmark and real-world datasets validate the effectiveness of the proposed
method. What's more, interpretability can be naturally obtained from the tree
based method, satisfying the industrial needs.
- Abstract(参考訳): マルチタスク学習 (MTL) は, それらに含まれる有用な情報を活用することで, 関連タスクの一般化性能を向上させることを目的としている。
しかし、産業シナリオでは、解釈可能性は常に要求され、異なるタスクのデータは異種ドメインにある可能性があり、既存のメソッドは不適切または不十分である。
本稿では,ブーストツリーの哲学に従い,二段階法を提案する。
ステージ1では、すべてのインスタンスの共通機能を使用して共通性を学ぶための共通モデルが構築されます。
従来のブースト木モデルのトレーニングとは異なり,マルチタスク学習プロセスを最適化するための正規化戦略と早期停止機構を提案した。
ステージ2では、共通モデルの残差誤差を満たして開始し、タスク固有のインスタンスで特定のモデルを構築し、パフォーマンスをさらに向上させる。
ベンチマークおよび実世界のデータセットにおける実験は、提案手法の有効性を検証する。
さらに、解釈性は、産業のニーズを満たす木ベースの手法から自然に得ることができる。
関連論文リスト
- BoRA: Bayesian Hierarchical Low-Rank Adaption for Multi-task Large Language Models [0.0]
本稿では,マルチタスク大言語モデル(LLM)を微調整する新しい手法であるベイジアン階層型低ランク適応(BoRA)を紹介する。
BoRAは、グローバルな階層的事前を通じてタスクが情報を共有できるベイズ階層モデルを活用することでトレードオフに対処する。
実験の結果,BoRAは個々のモデルアプローチと統一モデルアプローチの両方に優れており,より難易度が低く,タスク間の一般化性が向上していることがわかった。
論文 参考訳(メタデータ) (2024-07-08T06:38:50Z) - Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - Concrete Subspace Learning based Interference Elimination for Multi-task
Model Fusion [86.6191592951269]
一般的な事前訓練された大規模モデルから微調整されたマージングモデルは、様々なタスクに特化しているが、様々なタスクでうまく機能するマルチタスクモデルを構築するための安価でスケーラブルな戦略として実証されている。
本稿では、共通低次元部分空間を同定し、その共有情報トラック干渉問題を性能を犠牲にすることなく利用するための連続緩和(Concrete)部分空間学習法を提案する。
論文 参考訳(メタデータ) (2023-12-11T07:24:54Z) - DEPHN: Different Expression Parallel Heterogeneous Network using virtual
gradient optimization for Multi-task Learning [1.0705399532413615]
マルチタスク学習(MTL)に基づく推薦システムアルゴリズムは、インターネットオペレーターがユーザを理解し、その振る舞いを予測する主要な方法である。
従来のモデルでは、共有ボットモデルとゲーティングの専門家を使用して、共有表現学習と情報の差別化を実現している。
本稿では,複数のタスクを同時にモデル化するための異なる表現並列不均一ネットワーク(DEPHN)を提案する。
論文 参考訳(メタデータ) (2023-07-24T04:29:00Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Task Aware Feature Extraction Framework for Sequential Dependence
Multi-Task Learning [1.0765359420035392]
我々は厳密な数学的観点から逐次依存型MLLを解析する。
逐次依存型MLLのためのタスク認識特徴抽出(TAFE)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-06T13:12:59Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。