論文の概要: Decision trees compensate for model misspecification
- arxiv url: http://arxiv.org/abs/2302.04081v1
- Date: Wed, 8 Feb 2023 14:32:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:10:17.170537
- Title: Decision trees compensate for model misspecification
- Title(参考訳): モデルミス種別を補う決定木
- Authors: Hugh Panton and Gavin Leech and Laurence Aitchison
- Abstract要約: 本研究は,木深度が真の相互作用の欠如に果たす役割について,5つの仮説を提示する。
ツリーモデルの成功の一部は、様々な種類の誤特定に対する堅牢性によるものである。
本稿では,合成および混合応答シナリオに対処する2つの線形モデルについて述べる。
- 参考スコア(独自算出の注目度): 29.436464740855598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The best-performing models in ML are not interpretable. If we can explain why
they outperform, we may be able to replicate these mechanisms and obtain both
interpretability and performance. One example are decision trees and their
descendent gradient boosting machines (GBMs). These perform well in the
presence of complex interactions, with tree depth governing the order of
interactions. However, interactions cannot fully account for the depth of trees
found in practice. We confirm 5 alternative hypotheses about the role of tree
depth in performance in the absence of true interactions, and present results
from experiments on a battery of datasets. Part of the success of tree models
is due to their robustness to various forms of mis-specification. We present
two methods for robust generalized linear models (GLMs) addressing the
composite and mixed response scenarios.
- Abstract(参考訳): MLの最高のパフォーマンスモデルは解釈できない。
その理由を説明できれば、これらのメカニズムを再現して、解釈可能性とパフォーマンスの両方を得ることができるかもしれません。
例えば、決定木とその下降勾配ブースティングマシン(gbms)である。
これらは複雑な相互作用の存在下でうまく機能し、木深さは相互作用の順序を規定する。
しかし、相互作用は実際に見つかった木の深さを完全に説明できない。
実際の相互作用がない場合,木深度がパフォーマンスに与える影響について5つの仮説を立証し,データセットのバッテリ実験の結果を提示する。
ツリーモデルの成功の一部は、様々な種類のミス特定に対する堅牢性に起因する。
本稿では,複合応答と混合応答のシナリオに対処する,堅牢な一般化線形モデル(GLM)の2つの手法を提案する。
関連論文リスト
- Decision Trees for Interpretable Clusters in Mixture Models and Deep Representations [5.65604054654671]
混合モデルに対する説明可能性-雑音比の概念を導入する。
本研究では,混合モデルを入力として,データに依存しない時間に適切な木を構築するアルゴリズムを提案する。
結果の決定ツリーの誤り率について,上と下の境界を証明した。
論文 参考訳(メタデータ) (2024-11-03T14:00:20Z) - Inherently Interpretable Tree Ensemble Learning [7.868733904112288]
浅い決定木をベース学習として使用すると、アンサンブル学習アルゴリズムが本質的に解釈可能であることを示す。
木アンサンブルを固有の解釈可能性を持つ機能的ANOVA表現に変換する解釈アルゴリズムを開発した。
シミュレーションと実世界のデータセットを用いた実験により,提案手法はモデル解釈と予測性能のトレードオフを良くすることを示した。
論文 参考訳(メタデータ) (2024-10-24T18:58:41Z) - Distilling interpretable causal trees from causal forests [0.0]
条件平均処理効果の高次元分布は、正確な個々のレベルの推定を与える可能性がある。
本論文は, 原生林から1本, 解釈可能な因果樹を蒸留する方法である, 希釈因果樹を提案する。
論文 参考訳(メタデータ) (2024-08-02T05:48:15Z) - Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - Unboxing Tree Ensembles for interpretability: a hierarchical
visualization tool and a multivariate optimal re-built tree [0.34530027457862006]
我々は,木組モデルの解釈可能な表現を開発し,その振る舞いに関する貴重な洞察を提供する。
提案モデルは,木組決定関数を近似した浅い解釈可能な木を得るのに有効である。
論文 参考訳(メタデータ) (2023-02-15T10:43:31Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - SGA: A Robust Algorithm for Partial Recovery of Tree-Structured
Graphical Models with Noisy Samples [75.32013242448151]
ノードからの観測が独立しているが非識別的に分散ノイズによって破損した場合、Ising Treeモデルの学習を検討する。
Katiyarら。
(2020) は, 正確な木構造は復元できないが, 部分木構造を復元できることを示した。
統計的に堅牢な部分木回復アルゴリズムであるSymmetrized Geometric Averaging(SGA)を提案する。
論文 参考訳(メタデータ) (2021-01-22T01:57:35Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Exploiting Syntactic Structure for Better Language Modeling: A Syntactic
Distance Approach [78.77265671634454]
我々はマルチタスクの目的、すなわち、モデルが単語を同時に予測し、また「シンタクティック距離」と呼ばれる形態で真実解析木を解析する。
Penn Treebank と Chinese Treebank のデータセットによる実験結果から,地上の真理解析木を追加の訓練信号として提供すると,そのモデルはより低いパープレキシティを実現し,より良い品質で木を誘導できることが示された。
論文 参考訳(メタデータ) (2020-05-12T15:35:00Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。