論文の概要: Conceptually Diverse Base Model Selection for Meta-Learners in Concept
Drifting Data Streams
- arxiv url: http://arxiv.org/abs/2111.14520v1
- Date: Mon, 29 Nov 2021 13:18:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 23:29:35.130710
- Title: Conceptually Diverse Base Model Selection for Meta-Learners in Concept
Drifting Data Streams
- Title(参考訳): コンセプトドリフトデータストリームにおけるメタラーナーの多元的ベースモデル選択
- Authors: Helen McKay, Nathan Griffiths, Phillip Taylor
- Abstract要約: 本稿では,基礎となる部分空間間の主アングル(PA)を用いて計算したベースモデルの概念的類似性を推定するための新しいアプローチを提案する。
オンライン・トランスファー・ラーニング(TL)の文脈における共通アンサンブル・プルーニング・メトリクス、すなわち予測性能と相互情報(MI)を用いた閾値付けに対するこれらの手法の評価を行った。
その結果、概念的類似度閾値は計算オーバーヘッドを低減し、予測性能とMIを用いて閾値に匹敵する予測性能が得られることがわかった。
- 参考スコア(独自算出の注目度): 3.0938904602244355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meta-learners and ensembles aim to combine a set of relevant yet diverse base
models to improve predictive performance. However, determining an appropriate
set of base models is challenging, especially in online environments where the
underlying distribution of data can change over time. In this paper, we present
a novel approach for estimating the conceptual similarity of base models, which
is calculated using the Principal Angles (PAs) between their underlying
subspaces. We propose two methods that use conceptual similarity as a metric to
obtain a relevant yet diverse subset of base models: (i) parameterised
threshold culling and (ii) parameterless conceptual clustering. We evaluate
these methods against thresholding using common ensemble pruning metrics,
namely predictive performance and Mutual Information (MI), in the context of
online Transfer Learning (TL), using both synthetic and real-world data. Our
results show that conceptual similarity thresholding has a reduced
computational overhead, and yet yields comparable predictive performance to
thresholding using predictive performance and MI. Furthermore, conceptual
clustering achieves similar predictive performances without requiring
parameterisation, and achieves this with lower computational overhead than
thresholding using predictive performance and MI when the number of base models
becomes large.
- Abstract(参考訳): meta-learnersとアンサンブルは、関連するが多様なベースモデルを組み合わせて予測性能を改善することを目的としている。
しかし、基礎となるデータの分布が時間とともに変化するオンライン環境では、ベースモデルの適切なセットを決定することは困難である。
本稿では,基礎となる部分空間間の主角 (pas) を用いて計算される基本モデルの概念的類似性を評価するための新しい手法を提案する。
基本モデルの関連性はあるが多様な部分集合を得るために、概念的類似性を計量として利用する2つの方法を提案する。
(i)パラメータ化された閾値カリング及び
(ii)パラメータレス概念クラスタリング。
本研究では,オンライン転送学習(tl)の文脈における予測性能と相互情報(mi)を用いて,合成データと実世界データの両方を用いて,しきい値に対するしきい値評価を行う。
その結果、概念的類似度閾値は計算オーバーヘッドを低減し、予測性能とMIを用いて閾値に匹敵する予測性能が得られることがわかった。
さらに、概念クラスタリングはパラメータ化を必要とせず、同様の予測性能を達成し、ベースモデル数が大きくなると予測性能とmiを用いてしきい値よりも低い計算オーバーヘッドでこれを達成する。
関連論文リスト
- Variational Autoencoders for Efficient Simulation-Based Inference [0.3495246564946556]
本稿では、確率自由なシミュレーションに基づく推論のための変分推論フレームワークに基づく生成的モデリング手法を提案する。
我々は,これらのモデルの有効性を,フローベースアプローチに匹敵する結果が得られるように,確立されたベンチマーク問題に対して示す。
論文 参考訳(メタデータ) (2024-11-21T12:24:13Z) - Beyond explaining: XAI-based Adaptive Learning with SHAP Clustering for
Energy Consumption Prediction [0.0]
モデル予測を説明するためのSHAP値を取得し、異なるパターンと外れ値を特定するためのSHAP値をクラスタリングし、派生したSHAPクラスタリング特性に基づいてモデルを精錬する。
両タスクタイプにおいて,本手法の有効性を実証し,予測性能と解釈可能なモデル説明の改善を図った。
論文 参考訳(メタデータ) (2024-02-07T15:58:51Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Evaluating Representations with Readout Model Switching [19.907607374144167]
本稿では,最小記述長(MDL)の原理を用いて評価指標を考案する。
我々は、読み出しモデルのためのハイブリッド離散および連続値モデル空間を設計し、それらの予測を組み合わせるために切替戦略を用いる。
提案手法はオンライン手法で効率的に計算でき,様々なアーキテクチャの事前学習された視覚エンコーダに対する結果を示す。
論文 参考訳(メタデータ) (2023-02-19T14:08:01Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - Distributional Depth-Based Estimation of Object Articulation Models [21.046351215949525]
本研究では,奥行き画像から直接,調音モデルパラメータの分布を効率よく学習する手法を提案する。
私たちのコアコントリビューションには、剛体変換に対する分布の新しい表現が含まれています。
本稿では,カテゴリに依存しない調音モデル推定を行う新しい深層学習手法DUST-netを提案する。
論文 参考訳(メタデータ) (2021-08-12T17:44:51Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。