論文の概要: Trading Complexity for Sparsity in Random Forest Explanations
- arxiv url: http://arxiv.org/abs/2108.05276v1
- Date: Wed, 11 Aug 2021 15:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 15:13:34.421775
- Title: Trading Complexity for Sparsity in Random Forest Explanations
- Title(参考訳): ランダム森林説明におけるスパーシティの取引複雑性
- Authors: Gilles Audemard and Steve Bellart and Louenas Bounia and Fr\'ed\'eric
Koriche and Jean-Marie Lagniez and Pierre Marquis
- Abstract要約: 決定木の厳格な多数を占める主要な要因である主な理由を紹介する。
さまざまなデータセットで実施された実験は、ランタイムの複雑さとスパシティのトレードオフの存在を明らかにしている。
- 参考スコア(独自算出の注目度): 20.87501058448681
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Random forests have long been considered as powerful model ensembles in
machine learning. By training multiple decision trees, whose diversity is
fostered through data and feature subsampling, the resulting random forest can
lead to more stable and reliable predictions than a single decision tree. This
however comes at the cost of decreased interpretability: while decision trees
are often easily interpretable, the predictions made by random forests are much
more difficult to understand, as they involve a majority vote over hundreds of
decision trees. In this paper, we examine different types of reasons that
explain "why" an input instance is classified as positive or negative by a
Boolean random forest. Notably, as an alternative to sufficient reasons taking
the form of prime implicants of the random forest, we introduce majoritary
reasons which are prime implicants of a strict majority of decision trees. For
these different abductive explanations, the tractability of the generation
problem (finding one reason) and the minimization problem (finding one shortest
reason) are investigated. Experiments conducted on various datasets reveal the
existence of a trade-off between runtime complexity and sparsity. Sufficient
reasons - for which the identification problem is DP-complete - are slightly
larger than majoritary reasons that can be generated using a simple linear-
time greedy algorithm, and significantly larger than minimal majoritary reasons
that can be approached using an anytime P ARTIAL M AX SAT algorithm.
- Abstract(参考訳): ランダムフォレストは機械学習において強力なモデルアンサンブルと見なされてきた。
データや特徴サブサンプリングを通じて多様性を育む複数の決定木を訓練することにより、結果として生じるランダムな森林は単一の決定木よりも安定して信頼性の高い予測につながる。
決定木は容易に解釈できるが、無作為な森林による予測は、何百もの決定木に対して多数投票を行うため、より理解が難しい。
本稿では,入力インスタンスの「なぜ」を「正」あるいは「負」に分類する理由をブールランダム林で検討する。
特に,ランダム林の素因果関係の形式を取るための十分な理由の代替として,決定木の厳密な多数を占める素因となる主要な理由を導入する。
これらの異なる帰納的説明について,生成問題(最短の理由)と最小化問題(最短の理由)のトラクタビリティについて検討した。
さまざまなデータセットで実施された実験は、実行時の複雑さとスパーシティの間のトレードオフの存在を明らかにしている。
識別問題がDP完全である十分な理由は、単純な線形時間欲求アルゴリズムを用いて生成できる主要な理由よりも若干大きく、いつでも P ARTIAL M AX SAT アルゴリズムを用いてアプローチできる最小の主観的理由よりもはるかに大きい。
関連論文リスト
- Distilling interpretable causal trees from causal forests [0.0]
条件平均処理効果の高次元分布は、正確な個々のレベルの推定を与える可能性がある。
本論文は, 原生林から1本, 解釈可能な因果樹を蒸留する方法である, 希釈因果樹を提案する。
論文 参考訳(メタデータ) (2024-08-02T05:48:15Z) - A New Random Forest Ensemble of Intuitionistic Fuzzy Decision Trees [5.831659043074847]
直観主義的ファジィ決定木(IFDT)のランダム森林アンサンブルを提案する。
提案手法は,ブートストラップサンプリングと特徴選択からランダム性のパワーを享受する。
本研究は,直観的ファジィ理論に基づくランダムな森林アンサンブルを提案する最初の試みである。
論文 参考訳(メタデータ) (2024-03-12T06:52:24Z) - Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - Probabilistic Tree-of-thought Reasoning for Answering
Knowledge-intensive Complex Questions [93.40614719648386]
大規模言語モデル(LLM)は、知識集約的な複雑な質問にチェーン・オブ・シント(CoT)推論で答えることができる。
最近の研究は、CoT推論を強化するための外部知識の回収に向けられている。
確率的ツリー・オブ・シント推論(ProbTree)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-23T12:52:37Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Explaining Random Forests using Bipolar Argumentation and Markov
Networks (Technical Report) [17.9926469947157]
ランダムフォレスト(Random forest)は、さまざまな機械学習問題を解決するために使用できる決定木アンサンブルである。
決定過程を推論するために,議論問題として表現することを提案する。
マルコフネットワークエンコーディングを用いて十分な議論的説明を一般化し、これらの説明の関連性について議論し、文献からの帰納的説明の家族との関係を確立する。
論文 参考訳(メタデータ) (2022-11-21T18:20:50Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Trees, Forests, Chickens, and Eggs: When and Why to Prune Trees in a
Random Forest [8.513154770491898]
木深度はプロセス全体にわたって自然な正規化の形式と見なされるべきである。
特に,データの信号対雑音比が低ければ,樹木が浅いランダムな森林が有利であることが示唆された。
論文 参考訳(メタデータ) (2021-03-30T21:57:55Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - Trees, forests, and impurity-based variable importance [0.0]
MDI(Mean Decrease Impurity)という2つのよく知られたランダムな森林変動の重要度を分析した。
入力変数が独立であり、相互作用がない場合、MDIは出力の分散分解を提供する。
分析の結果,単木に比べて森林の利用にはいくつかの利点がある可能性が示唆された。
論文 参考訳(メタデータ) (2020-01-13T14:38:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。