論文の概要: Decision trees compensate for model misspecification
- arxiv url: http://arxiv.org/abs/2302.04081v1
- Date: Wed, 8 Feb 2023 14:32:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:10:17.170537
- Title: Decision trees compensate for model misspecification
- Title(参考訳): モデルミス種別を補う決定木
- Authors: Hugh Panton and Gavin Leech and Laurence Aitchison
- Abstract要約: 本研究は,木深度が真の相互作用の欠如に果たす役割について,5つの仮説を提示する。
ツリーモデルの成功の一部は、様々な種類の誤特定に対する堅牢性によるものである。
本稿では,合成および混合応答シナリオに対処する2つの線形モデルについて述べる。
- 参考スコア(独自算出の注目度): 29.436464740855598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The best-performing models in ML are not interpretable. If we can explain why
they outperform, we may be able to replicate these mechanisms and obtain both
interpretability and performance. One example are decision trees and their
descendent gradient boosting machines (GBMs). These perform well in the
presence of complex interactions, with tree depth governing the order of
interactions. However, interactions cannot fully account for the depth of trees
found in practice. We confirm 5 alternative hypotheses about the role of tree
depth in performance in the absence of true interactions, and present results
from experiments on a battery of datasets. Part of the success of tree models
is due to their robustness to various forms of mis-specification. We present
two methods for robust generalized linear models (GLMs) addressing the
composite and mixed response scenarios.
- Abstract(参考訳): MLの最高のパフォーマンスモデルは解釈できない。
その理由を説明できれば、これらのメカニズムを再現して、解釈可能性とパフォーマンスの両方を得ることができるかもしれません。
例えば、決定木とその下降勾配ブースティングマシン(gbms)である。
これらは複雑な相互作用の存在下でうまく機能し、木深さは相互作用の順序を規定する。
しかし、相互作用は実際に見つかった木の深さを完全に説明できない。
実際の相互作用がない場合,木深度がパフォーマンスに与える影響について5つの仮説を立証し,データセットのバッテリ実験の結果を提示する。
ツリーモデルの成功の一部は、様々な種類のミス特定に対する堅牢性に起因する。
本稿では,複合応答と混合応答のシナリオに対処する,堅牢な一般化線形モデル(GLM)の2つの手法を提案する。
関連論文リスト
- Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate
Decision Stumps [49.97564931094598]
複雑なMLモデルの振る舞いをユーザフレンドリに要約するビジュアル分析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - On marginal feature attributions of tree-based models [0.11999555634662631]
辺縁的なシャプリー、オーウェンまたはバンジャフの値など、辺縁的な期待に基づく局所的な特徴属性を用いることができる。
パス依存(path-dependent)のTreeSHAPが特徴のランク付けを行うのと全く同じ関数を計算する2つの(統計的に類似した)決定木を提示する。
我々は、CataBoostモデルの余剰Shapley(およびBanzhafとOwen)値についてのみ、複雑さを改善し、内部モデルパラメータの観点からのみ、明示的な式を導出するために対称性を利用する。
論文 参考訳(メタデータ) (2023-02-16T17:18:03Z) - Unboxing Tree Ensembles for interpretability: a hierarchical
visualization tool and a multivariate optimal re-built tree [0.34530027457862006]
我々は,木組モデルの解釈可能な表現を開発し,その振る舞いに関する貴重な洞察を提供する。
提案モデルは,木組決定関数を近似した浅い解釈可能な木を得るのに有効である。
論文 参考訳(メタデータ) (2023-02-15T10:43:31Z) - Unifying local and global model explanations by functional decomposition
of low dimensional structures [0.0]
回帰関数や分類関数のグローバルな説明を主成分と相互作用成分の和に分解して考える。
ここで、qは分解に存在する相互作用の最高位を表す。
論文 参考訳(メタデータ) (2022-08-12T07:38:53Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - SGA: A Robust Algorithm for Partial Recovery of Tree-Structured
Graphical Models with Noisy Samples [75.32013242448151]
ノードからの観測が独立しているが非識別的に分散ノイズによって破損した場合、Ising Treeモデルの学習を検討する。
Katiyarら。
(2020) は, 正確な木構造は復元できないが, 部分木構造を復元できることを示した。
統計的に堅牢な部分木回復アルゴリズムであるSymmetrized Geometric Averaging(SGA)を提案する。
論文 参考訳(メタデータ) (2021-01-22T01:57:35Z) - Dive into Decision Trees and Forests: A Theoretical Demonstration [0.0]
決定木は"divide-and-conquer"の戦略を使用して、入力機能とラベル間の依存性に関する複雑な問題を小さなものに分割します。
近年, 計算広告, 推薦システム, 情報検索などの性能が大幅に向上している。
論文 参考訳(メタデータ) (2021-01-20T16:47:59Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。