論文の概要: Robust Finite Mixture Regression for Heterogeneous Targets
- arxiv url: http://arxiv.org/abs/2010.05430v1
- Date: Mon, 12 Oct 2020 03:27:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 06:05:55.403303
- Title: Robust Finite Mixture Regression for Heterogeneous Targets
- Title(参考訳): 不均一ターゲットに対するロバスト有限混合回帰
- Authors: Jian Liang, Kun Chen, Ming Lin, Changshui Zhang, Fei Wang
- Abstract要約: 本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
- 参考スコア(独自算出の注目度): 70.19798470463378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finite Mixture Regression (FMR) refers to the mixture modeling scheme which
learns multiple regression models from the training data set. Each of them is
in charge of a subset. FMR is an effective scheme for handling sample
heterogeneity, where a single regression model is not enough for capturing the
complexities of the conditional distribution of the observed samples given the
features. In this paper, we propose an FMR model that 1) finds sample clusters
and jointly models multiple incomplete mixed-type targets simultaneously, 2)
achieves shared feature selection among tasks and cluster components, and 3)
detects anomaly tasks or clustered structure among tasks, and accommodates
outlier samples. We provide non-asymptotic oracle performance bounds for our
model under a high-dimensional learning framework. The proposed model is
evaluated on both synthetic and real-world data sets. The results show that our
model can achieve state-of-the-art performance.
- Abstract(参考訳): FMR(Finite Mixture Regression)とは、学習データセットから複数の回帰モデルを学習する混合モデリングスキームである。
それぞれがサブセットを担当している。
FMRはサンプルの不均一性を扱うための有効な手法であり、単一の回帰モデルでは特徴が与えられた標本の条件分布の複雑さを捉えるには不十分である。
本稿では,FMRモデルを提案する。
1) サンプルクラスタと連成モデルとを同時に検出する。
2)タスクとクラスタコンポーネント間の共有機能選択を実現し、
3) タスク間の異常タスクやクラスタ構造を検出し,異常サンプルを収容する。
我々は,高次元学習フレームワークを用いて,無症状のオラクル性能境界をモデルに提供する。
提案モデルは合成データと実世界データの両方で評価される。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
関連論文リスト
- Ablation Based Counterfactuals [7.481286710933861]
ABC (Ablation Based Counterfactuals) は、モデル再訓練ではなくモデルアブレーションに依存する反ファクト解析を行う手法である。
拡散モデルの集合を用いてこのようなモデルを構築する方法を示す。
次に、このモデルを用いて、完全な対物的景観を列挙することで、トレーニングデータ属性の限界を研究する。
論文 参考訳(メタデータ) (2024-06-12T06:22:51Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
課題群規則化(Task Groupings Regularization)は、矛盾するタスクをグループ化し整合させることにより、モデルの不均一性から恩恵を受ける新しいアプローチである。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Representation Surgery for Multi-Task Model Merging [57.63643005215592]
マルチタスク学習(MTL)は、複数のタスクから情報を統一されたバックボーンに圧縮し、計算効率と一般化を改善する。
最近の研究は、複数の独立して訓練されたモデルをマージして、共同トレーニングのために生データを収集する代わりにMLLを実行する。
既存のモデルマージスキームの表現分布を可視化することにより、マージモデルはしばしば表現バイアスのジレンマに悩まされる。
論文 参考訳(メタデータ) (2024-02-05T03:39:39Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Training Experimentally Robust and Interpretable Binarized Regression
Models Using Mixed-Integer Programming [3.179831861897336]
マルチクラス分類タスクに対するロバストかつ解釈可能な二項化回帰モデルをトレーニングするためのモデルに基づくアプローチを提案する。
MIPモデルは、重み付けされた目的を用いて予測マージンとモデルサイズを最適化する。
MIPを用いた頑健かつ解釈可能な二項化回帰モデルのトレーニングの有効性を示す。
論文 参考訳(メタデータ) (2021-12-01T11:53:08Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Gaussian Function On Response Surface Estimation [12.35564140065216]
メタモデリング手法によるブラックボックス機械学習モデルの解釈(機能とサンプル)のための新しいフレームワークを提案する。
メタモデルは、興味のある領域のデータサンプルでコンピュータ実験を実行することによって、訓練された複雑なモデルによって生成されたデータから推定することができる。
論文 参考訳(メタデータ) (2021-01-04T04:47:00Z) - One for More: Selecting Generalizable Samples for Generalizable ReID
Model [92.40951770273972]
本稿では,選択したサンプルを損失関数として一般化する1対3の学習目標を提案する。
提案した1対3のサンプルは,ReIDトレーニングフレームワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2020-12-10T06:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。