論文の概要: Connecting Interpretability and Robustness in Decision Trees through
Separation
- arxiv url: http://arxiv.org/abs/2102.07048v1
- Date: Sun, 14 Feb 2021 02:08:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 16:04:48.877044
- Title: Connecting Interpretability and Robustness in Decision Trees through
Separation
- Title(参考訳): 決定木の分離による解釈性とロバスト性
- Authors: Michal Moshkovitz and Yao-Yuan Yang and Kamalika Chaudhuri
- Abstract要約: 決定木とロバスト性を用いた解釈を$l_infty$-分離に焦点をあてる。
決定木におけるロバスト性,解釈可能性,精度の両立を保証できる最初のアルゴリズムを提供する。
実験により,本アルゴリズムは,解釈可能でロバストで高精度な分類器を生成できることを確認した。
- 参考スコア(独自算出の注目度): 24.718895656168144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has recognized interpretability and robustness as essential
properties of trustworthy classification. Curiously, a connection between
robustness and interpretability was empirically observed, but the theoretical
reasoning behind it remained elusive. In this paper, we rigorously investigate
this connection. Specifically, we focus on interpretation using decision trees
and robustness to $l_{\infty}$-perturbation. Previous works defined the notion
of $r$-separation as a sufficient condition for robustness. We prove upper and
lower bounds on the tree size in case the data is $r$-separated. We then show
that a tighter bound on the size is possible when the data is linearly
separated. We provide the first algorithm with provable guarantees both on
robustness, interpretability, and accuracy in the context of decision trees.
Experiments confirm that our algorithm yields classifiers that are both
interpretable and robust and have high accuracy. The code for the experiments
is available at https://github.com/yangarbiter/interpretable-robust-trees .
- Abstract(参考訳): 最近の研究では、信頼できる分類の本質的な特性として解釈可能性と堅牢性が認められている。
興味深いことに、堅牢性と解釈可能性の関係は実証的に観察されたが、その背後にある理論的根拠は不可解のままだった。
本稿では,この接続を厳格に検討する。
具体的には、決定木を用いた解釈と、$l_{\infty}$-perturbationに対するロバスト性に焦点を当てる。
以前の著作では、r$-分離の概念を堅牢性の十分条件として定義していた。
データが$r$-separatedの場合、ツリーサイズ上の上下の境界を証明します。
次に,データが線形に分離された場合,サイズに対するより厳密なバインドが可能であることを示す。
決定木におけるロバスト性,解釈可能性,精度の両立を保証できる最初のアルゴリズムを提供する。
実験により,本アルゴリズムは,解釈可能でロバストで高精度な分類器を生成できることを確認した。
実験のコードはhttps://github.com/yangarbiter/interpretable-robust-treesで入手できる。
関連論文リスト
- Fuzzy Fault Trees Formalized [1.640922391885265]
ファジィ論理は曖昧な値を扱うための一般的なフレームワークである。
本稿では,ファジィ不確実性値に対する厳密な枠組みを定義する。
また,システムのファジィ信頼性を効率的に計算するボトムアップアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-13T14:45:54Z) - Optimal Transport for Measures with Noisy Tree Metric [29.950797721275574]
木メートル空間上での確率測度に対する最適輸送問題について検討する。
一般に、1つの空間でサポートされている測度であっても、このアプローチは計算が難しい。
我々は、ロバスト OT が計量特性を満たすことを示し、負の定値であることを示す。
論文 参考訳(メタデータ) (2023-10-20T16:56:08Z) - Regularized impurity reduction: Accurate decision trees with complexity
guarantees [20.170305081348328]
本稿では,木複雑性の対数近似を保証する木推論アルゴリズムを提案する。
改良されたアルゴリズムは予測精度と木の複雑さのバランスが良好である。
論文 参考訳(メタデータ) (2022-08-23T13:15:19Z) - There is no Accuracy-Interpretability Tradeoff in Reinforcement Learning
for Mazes [64.05903267230467]
相互理解性は,強化学習システムにおける信頼性に不可欠なビルディングブロックである。
場合によっては、最適性を保ちつつ、政策の解釈可能性を達成することができることを示す。
論文 参考訳(メタデータ) (2022-06-09T04:23:26Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Certifiably Robust Interpretation via Renyi Differential Privacy [77.04377192920741]
我々はRenyi差分プライバシー(RDP)の新しい視点から解釈堅牢性の問題を研究する。
まず、証明可能で証明可能なトップ$k$ロバスト性を提供する。
第二に、提案手法は既存の手法よりも実験的堅牢性を$sim10%$で提供する。
第3に,ロバスト性と計算効率のトレードオフを円滑に行うことができる。
論文 参考訳(メタデータ) (2021-07-04T06:58:01Z) - Tree-Values: selective inference for regression trees [0.0]
データから推定された木が標準的な保証を達成できないという事実を説明できない推論に対する単純なアプローチ。
適応したCARTツリー上での推論を行うための選択推論フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T00:25:11Z) - A Weaker Faithfulness Assumption based on Triple Interactions [89.59955143854556]
より弱い仮定として, 2$-adjacency faithfulness を提案します。
より弱い仮定の下で適用可能な因果発見のための音方向規則を提案する。
論文 参考訳(メタデータ) (2020-10-27T13:04:08Z) - On $\ell_p$-norm Robustness of Ensemble Stumps and Trees [83.81523991945018]
我々は,アンサンブルスタンプの音響検証のための効率的なプログラムベースアルゴリズムを開発した。
我々は,アンサンブル・スタンプや木を訓練するための最初の認証された防御法を,$ell_p$ノルム摂動に関して実証した。
論文 参考訳(メタデータ) (2020-08-20T03:42:40Z) - The Curse of Performance Instability in Analysis Datasets: Consequences,
Source, and Suggestions [93.62888099134028]
自然言語推論(NLI)および読み込み(RC)解析/ストレスセットにおける最先端モデルの性能は極めて不安定であることがわかった。
このことは、(1)不安定さがこれらの分析セットに基づいて引き出された結論の信頼性にどのように影響するかという3つの疑問を提起する。
不安定の原因に関する理論的説明と実証的証拠の両方を提示する。
論文 参考訳(メタデータ) (2020-04-28T15:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。