論文の概要: Robust multi-task boosting using clustering and local ensembling
- arxiv url: http://arxiv.org/abs/2602.14231v1
- Date: Sun, 15 Feb 2026 16:59:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:49.756772
- Title: Robust multi-task boosting using clustering and local ensembling
- Title(参考訳): クラスタリングと局所アンサンブルを用いたロバストマルチタスクブースティング
- Authors: Seyedsaman Emami, Daniel Hernández-Lobato, Gonzalo Martínez-Muñoz,
- Abstract要約: クラスタリングと局所組立(RMB-CLE)を用いたロバストマルチタスクブースティングを提案する。
RMB-CLEは、クロスタスクエラーから直接タスク間類似性を導出する。
各クラスタ内のローカルアンサンブルは、堅牢な知識共有を可能にする。
- 参考スコア(独自算出の注目度): 6.920276126310231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Task Learning (MTL) aims to boost predictive performance by sharing information across related tasks, yet conventional methods often suffer from negative transfer when unrelated or noisy tasks are forced to share representations. We propose Robust Multi-Task Boosting using Clustering and Local Ensembling (RMB-CLE), a principled MTL framework that integrates error-based task clustering with local ensembling. Unlike prior work that assumes fixed clusters or hand-crafted similarity metrics, RMB-CLE derives inter-task similarity directly from cross-task errors, which admit a risk decomposition into functional mismatch and irreducible noise, providing a theoretically grounded mechanism to prevent negative transfer. Tasks are grouped adaptively via agglomerative clustering, and within each cluster, a local ensemble enables robust knowledge sharing while preserving task-specific patterns. Experiments show that RMB-CLE recovers ground-truth clusters in synthetic data and consistently outperforms multi-task, single-task, and pooling-based ensemble methods across diverse real-world and synthetic benchmarks. These results demonstrate that RMB-CLE is not merely a combination of clustering and boosting but a general and scalable framework that establishes a new basis for robust multi-task learning.
- Abstract(参考訳): マルチタスク学習(MTL)は、関連するタスク間で情報を共有することで予測性能を向上させることを目的としているが、従来手法では、非関連タスクやノイズの多いタスクが表現を共有せざるを得ない場合、負の伝達に悩まされることが多い。
本稿では,RMB-CLE(Local Ensembling)を用いたロバストマルチタスクブースティングを提案する。
固定クラスタや手作りの類似度指標を仮定する以前の研究とは異なり、RMB-CLEはクロスタスクエラーから直接タスク間類似度を導出しており、これは機能的ミスマッチと既約ノイズへのリスク分解を許容し、負の移動を防止する理論的基盤機構を提供する。
タスクは集約的クラスタリングによって適応的にグループ化され、各クラスタ内では、タスク固有のパターンを保存しながら、ローカルアンサンブルが堅牢な知識共有を可能にする。
実験により、RMB-CLEは、合成データの基底構造クラスタを回復し、多タスク、シングルタスク、およびプールベースのアンサンブル法を様々な実世界および合成ベンチマークで一貫して上回っていることが示された。
これらの結果から, RMB-CLEはクラスタリングとブースティングを組み合わせたものではなく, 堅牢なマルチタスク学習の新たな基盤を確立する, 汎用的でスケーラブルなフレームワークであることが示唆された。
関連論文リスト
- ESMC: MLLM-Based Embedding Selection for Explainable Multiple Clustering [79.69917150582633]
MLLM(Multi-modal large language model)は、ユーザ主導のクラスタリングを実現するために利用することができる。
本手法はまず,MLLMのテキストトークンの隠蔽状態が対応する特徴と強く関連していることを明らかにする。
また、擬似ラベル学習を付加した軽量クラスタリングヘッドを採用し、クラスタリング精度を大幅に向上させた。
論文 参考訳(メタデータ) (2025-11-30T04:36:51Z) - Robust-Multi-Task Gradient Boosting [6.920276126310231]
マルチタスク学習(MTL)は、タスク間の共有情報を利用して一般化を改善する効果を示す。
本稿では,R-MTGB(Robust-Multi-Task Gradient Boosting)を提案する。
R-MTGBは学習プロセスを3つのブロックに構成する:(1)共有パターンの学習、(2)正規化パラメータを持つ逐次タスクを外れ値と非外れ値に分割、(3)微調整タスク固有の予測器。
論文 参考訳(メタデータ) (2025-07-15T15:31:12Z) - Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Multi-task learning via robust regularized clustering with non-convex group penalties [0.0]
マルチタスク学習(MTL)は、関連するタスク間で共通情報を共有することにより、推定性能を向上させることを目的としている。
この仮定に基づく既存のMTLメソッドは、しばしば外れたタスクを無視する。
MTLRRC(MultiTask Regularized Clustering)と呼ばれる新しいMTL手法を提案する。
論文 参考訳(メタデータ) (2024-04-04T07:09:43Z) - Mitigating Task Interference in Multi-Task Learning via Explicit Task
Routing with Non-Learnable Primitives [19.90788777476128]
マルチタスク学習(MTL)は、タスク間の共有情報を活用することで、複数のタスクを達成するための単一のモデルを学ぶことを目指している。
既存のMLLモデルはタスク間の負の干渉に悩まされていることが知られている。
本研究では,非学習可能なプリミティブと明示的なタスクルーティングの相乗的組み合わせによるタスク干渉を軽減するためのETR-NLPを提案する。
論文 参考訳(メタデータ) (2023-08-03T22:34:16Z) - Semisoft Task Clustering for Multi-Task Learning [2.806911268410107]
マルチタスク学習(MTL)は、複数の関連する予測タスクの性能を向上させることを目的としている。
そこで本研究では,タスククラスタリング構造を半ソフトなタスククラスタリング手法として提案する。
合成および実世界のデータセットに基づく実験結果は,提案手法の有効性と有効性を検証する。
論文 参考訳(メタデータ) (2022-11-28T07:23:56Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。