論文の概要: Inapproximability of sufficient reasons for decision trees
- arxiv url: http://arxiv.org/abs/2304.02781v1
- Date: Wed, 5 Apr 2023 23:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 15:51:46.321994
- Title: Inapproximability of sufficient reasons for decision trees
- Title(参考訳): 決定木に対する十分な理由の近似性
- Authors: Alexander Kozachinskiy
- Abstract要約: 本稿では,決定木に対する$delta$sufficient reasonの最小サイズを計算することの難しさについて述べる。
- 参考スコア(独自算出の注目度): 91.75627458356654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this note, we establish the hardness of approximation of the problem of
computing the minimal size of a $\delta$-sufficient reason for decision trees.
- Abstract(参考訳): 本稿では,決定木に対する$\delta$-sufficient reasonの最小サイズを計算する問題に対する近似の難しさを定式化する。
関連論文リスト
- Causal Discovery and Classification Using Lempel-Ziv Complexity [2.7309692684728617]
本稿では,Lempel-Ziv複雑性から導かれる新しい因果度尺度と距離計量を導入する。
因果決定木と距離決定木の有効性を評価する。
論文 参考訳(メタデータ) (2024-11-04T08:24:56Z) - On the Trade-off between the Number of Nodes and the Number of Trees in
a Random Forest [8.340919965932443]
我々は、$n$変数の多数関数は、$n-T$が定数であれば、それぞれ大きさで$T$$$(n$)決定ツリーのバッグで表現できることを示した。
k$-out-of-n$関数に関する関連する結果も提示される。
論文 参考訳(メタデータ) (2023-12-16T02:09:34Z) - Properly Learning Decision Trees with Queries Is NP-Hard [5.117810469621253]
PACがクエリで決定木を適切に学習することはNPハードであることを証明する。
我々は、決定木最小化の異なる問題に対して、最もよく知られた下界を単純化し、強化する。
論文 参考訳(メタデータ) (2023-07-09T04:29:43Z) - Shallow decision trees for explainable $k$-means clustering [1.2891210250935146]
決定木内の葉の深さに関連する指標を考慮に入れた効率的なアルゴリズムを提案する。
16個のデータセットの実験において,本アルゴリズムは決定木クラスタリングアルゴリズムよりも優れた結果が得られる。
論文 参考訳(メタデータ) (2021-12-29T18:22:28Z) - On the Explanatory Power of Decision Trees [20.87501058448681]
例えば、決定木が入力のサイズよりも指数関数的に大きい場合など、最小サイズのすべての十分な理由の集合を示す。
本稿では,特徴の説明的重要性と十分な理由の数が,モデルカウント操作によってどのように得られるかを示す。
十分な理由とは異なり、決定木が与えられたインスタンスに対するすべての対照的な説明の集合は導出され、最小化され、時間内に数えられる。
論文 参考訳(メタデータ) (2021-08-11T15:08:11Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - Please Mind the Root: Decoding Arborescences for Dependency Parsing [67.71280539312536]
我々はUniversal Dependency Treebankから多くの言語における最先端の出力を分析する。
最悪の制約違反率は24%です。
論文 参考訳(メタデータ) (2020-10-06T08:31:14Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。