論文の概要: Dynamic Model Tree for Interpretable Data Stream Learning
- arxiv url: http://arxiv.org/abs/2203.16181v1
- Date: Wed, 30 Mar 2022 10:05:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 13:45:40.541397
- Title: Dynamic Model Tree for Interpretable Data Stream Learning
- Title(参考訳): 解釈可能なデータストリーム学習のための動的モデルツリー
- Authors: Johannes Haug, Klaus Broelemann, Gjergji Kasneci
- Abstract要約: 本研究では、進化するデータストリームにおける機械学習のためのモデルツリーを再検討する。
我々の新しいフレームワークはDynamic Model Treeと呼ばれ、望ましい一貫性と最小限の性質を満たす。
- 参考スコア(独自算出の注目度): 14.37676876556672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data streams are ubiquitous in modern business and society. In practice, data
streams may evolve over time and cannot be stored indefinitely. Effective and
transparent machine learning on data streams is thus often challenging.
Hoeffding Trees have emerged as a state-of-the art for online predictive
modelling. They are easy to train and provide meaningful convergence guarantees
under a stationary process. Yet, at the same time, Hoeffding Trees often
require heuristic and costly extensions to adjust to distributional change,
which may considerably impair their interpretability. In this work, we revisit
Model Trees for machine learning in evolving data streams. Model Trees are able
to maintain more flexible and locally robust representations of the active data
concept, making them a natural fit for data stream applications. Our novel
framework, called Dynamic Model Tree, satisfies desirable consistency and
minimality properties. In experiments with synthetic and real-world tabular
streaming data sets, we show that the proposed framework can drastically reduce
the number of splits required by existing incremental decision trees. At the
same time, our framework often outperforms state-of-the-art models in terms of
predictive quality -- especially when concept drift is involved. Dynamic Model
Trees are thus a powerful online learning framework that contributes to more
lightweight and interpretable machine learning in data streams.
- Abstract(参考訳): データストリームは現代のビジネスや社会で広く使われている。
実際には、データストリームは時間とともに進化し、無期限に保存することはできない。
したがって、データストリーム上の効率的で透明な機械学習は、しばしば困難である。
Hoeffding Treesはオンライン予測モデリングの最先端技術として登場した。
訓練が容易で、定常プロセス下で有意義な収束保証を提供する。
しかし同時に、Hoeffding Treesは、しばしば分布の変化に適応するためにヒューリスティックでコストのかかる拡張を必要とする。
本研究では,進化するデータストリームにおける機械学習のためのモデルツリーを再検討する。
モデルツリーは、アクティブなデータコンセプトのより柔軟で局所的な堅牢な表現を維持することができ、データストリームアプリケーションに自然にフィットします。
私たちの新しいフレームワークはdynamic model treeと呼ばれ、望ましい一貫性と最小性特性を満たす。
合成および実世界の表付きストリーミングデータセットを用いた実験では,既存のインクリメンタル決定木に必要な分割数を劇的に削減できることを示した。
同時に、私たちのフレームワークは、特にコンセプトドリフトが関与している場合、予測品質の観点から、最先端のモデルを上回っています。
ダイナミックモデルツリーは、データストリームにおけるより軽量で解釈可能な機械学習に寄与する強力なオンライン学習フレームワークである。
関連論文リスト
- Soft Hoeffding Tree: A Transparent and Differentiable Model on Data Streams [2.6524539020042663]
Hoeffding Treeのようなストリームマイニングアルゴリズムは、入ってくるデータストリームに基づいて成長する。
我々は,データストリームを無限に変化させる可能性のある,新しい微分可能かつ透明なモデルとして,ソフトなHoeffding Tree (SoHoT)を提案する。
論文 参考訳(メタデータ) (2024-11-07T15:49:53Z) - Escaping the Forest: Sparse Interpretable Neural Networks for Tabular Data [0.0]
我々のモデルであるSparse TABular NET や sTAB-Net がツリーベースモデルよりも効果的であることを示す。
SHAPのようなポストホックメソッドよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-10-23T10:50:07Z) - NCART: Neural Classification and Regression Tree for Tabular Data [0.5439020425819]
NCARTはResidual Networksの修正版で、完全に接続されたレイヤを複数の識別不能な決定木で置き換える。
ニューラルネットワークのエンドツーエンド能力の恩恵を受けながら、解釈可能性を維持している。
NCARTアーキテクチャの単純さは、さまざまなサイズのデータセットに適している。
論文 参考訳(メタデータ) (2023-07-23T01:27:26Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Online learning techniques for prediction of temporal tabular datasets
with regime changes [0.0]
時間パネルデータセットの予測をランキングするモジュール型機械学習パイプラインを提案する。
パイプラインのモジュラリティにより、GBDT(Gradient Boosting Decision Tree)やニューラルネットワークなど、さまざまなモデルの使用が可能になる。
モデルの再トレーニングを必要としないオンライン学習技術は、予測後の結果を高めるために使用することができる。
論文 参考訳(メタデータ) (2022-12-30T17:19:00Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Distributionally Robust Recurrent Decoders with Random Network
Distillation [93.10261573696788]
本稿では,自動回帰言語モデルが推論中にOODコンテキストを無視できるように,ランダムネットワーク蒸留を用いたOOD検出に基づく手法を提案する。
提案手法をGRUアーキテクチャに適用し,複数の言語モデリング(LM)データセットの改善を実証する。
論文 参考訳(メタデータ) (2021-10-25T19:26:29Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Lambda Learner: Fast Incremental Learning on Data Streams [5.543723668681475]
本稿では,データストリームからのミニバッチに対するインクリメンタル更新によるモデルトレーニングのための新しいフレームワークを提案する。
提案するフレームワークのモデルでは,オフラインデータに基づいてトレーニングされた周期的に更新されたモデルを推定し,モデル更新が時間に敏感な場合,性能が向上することを示す。
我々は、大規模ソーシャルネットワークのためのスポンサー付きコンテンツプラットフォームに大規模な展開を提示する。
論文 参考訳(メタデータ) (2020-10-11T04:00:34Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。