論文の概要: Efficiently Transforming Neural Networks into Decision Trees: A Path to Ground Truth Explanations with RENTT
- arxiv url: http://arxiv.org/abs/2511.09299v1
- Date: Thu, 13 Nov 2025 01:45:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.508025
- Title: Efficiently Transforming Neural Networks into Decision Trees: A Path to Ground Truth Explanations with RENTT
- Title(参考訳): ニューラルネットワークを決定木に効率よく変換する:RENTTによる真理説明への道
- Authors: Helena Monke, Benjamin Fresz, Marco Bernreuther, Yilin Chen, Marco F. Huber,
- Abstract要約: 我々は、実行時とメモリ効率の両面において、ニューラルネットワークの正確な等価決定木表現を示す。
また、等価な決定木を用いて、ニューラルネットワークの真理の特徴を重要視する手法も提案する。
- 参考スコア(独自算出の注目度): 3.4872074978471788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although neural networks are a powerful tool, their widespread use is hindered by the opacity of their decisions and their black-box nature, which result in a lack of trustworthiness. To alleviate this problem, methods in the field of explainable Artificial Intelligence try to unveil how such automated decisions are made. But explainable AI methods are often plagued by missing faithfulness/correctness, meaning that they sometimes provide explanations that do not align with the neural network's decision and logic. Recently, transformations to decision trees have been proposed to overcome such problems. Unfortunately, they typically lack exactness, scalability, or interpretability as the size of the neural network grows. Thus, we generalize these previous results, especially by considering convolutional neural networks, recurrent neural networks, non-ReLU activation functions, and bias terms. Our findings are accompanied by rigorous proofs and we present a novel algorithm RENTT (Runtime Efficient Network to Tree Transformation) designed to compute an exact equivalent decision tree representation of neural networks in a manner that is both runtime and memory efficient. The resulting decision trees are multivariate and thus, possibly too complex to understand. To alleviate this problem, we also provide a method to calculate the ground truth feature importance for neural networks via the equivalent decision trees - for entire models (global), specific input regions (regional), or single decisions (local). All theoretical results are supported by detailed numerical experiments that emphasize two key aspects: the computational efficiency and scalability of our algorithm, and that only RENTT succeeds in uncovering ground truth explanations compared to conventional approximation methods like LIME and SHAP. All code is available at https://github.com/HelenaM23/RENTT .
- Abstract(参考訳): ニューラルネットワークは強力なツールであるが、彼らの決定の不透明さとブラックボックスの性質によって広く使われることを妨げるため、信頼性の欠如が生じる。
この問題を軽減するために、説明可能な人工知能の分野における手法は、このような自動決定がどのように行われるかを明らかにする。
しかし、説明可能なAIメソッドは、しばしば忠実さ/正確さの欠如に悩まされる。
近年,このような問題を克服するために決定木への変換が提案されている。
残念なことに、ニューラルネットワークのサイズが大きくなるにつれて、正確性やスケーラビリティ、解釈性が欠如することが多い。
したがって, 畳み込みニューラルネットワーク, リカレントニューラルネットワーク, 非ReLUアクティベーション関数, バイアス項を考慮し, これらの先行結果を一般化する。
本研究は厳密な証明を伴い,ニューラルネットワークの正確な等価決定木表現を,実行時とメモリ効率の両方で計算する新しいアルゴリズム RENTT (Runtime Efficient Network to Tree Transformation) を提案する。
結果として得られる決定木は多変量であり、理解するには複雑すぎる。
この問題を緩和するために、モデル全体(グローバル)、特定の入力領域(地域)、あるいは単一決定(ローカル)について、等価な決定木を介してニューラルネットワークの基底真理特徴重要度を計算する方法も提案する。
すべての理論的結果は、我々のアルゴリズムの計算効率とスケーラビリティの2つの重要な側面を強調する詳細な数値実験によって支えられ、LIMEやSHAPのような従来の近似法と比較して、基礎的真理の説明を明らかにするのに成功するのはRENTTのみである。
すべてのコードはhttps://github.com/HelenaM23/RENTTで入手できる。
関連論文リスト
- Mind The Gap: Deep Learning Doesn't Learn Deeply [16.284360949127723]
本稿では,ニューラルネットワークが2つの疑問に対処してアルゴリズム推論をどのように学習するかを理解することを目的とする。
ニューラルネットワークが効果的なアルゴリズムを学習できないのはなぜなのか?
論文 参考訳(メタデータ) (2025-05-24T10:11:36Z) - Adaptive Pruning of Deep Neural Networks for Resource-Aware Embedded Intrusion Detection on the Edge [43.03813603637526]
我々は、新しいサイバーセキュリティデータセットに一般化する人工知能プルーニング手法の選択能力を分析する。
それらの多くは問題をうまく一般化していないことが分かっており、許容できる程度に働くアルゴリズムはわずかである。
論文 参考訳(メタデータ) (2025-05-20T16:45:54Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Using Cooperative Game Theory to Prune Neural Networks [7.3959659158152355]
本稿では,協調ゲーム理論の解の概念を用いて,ニューラルネットワークの刈り取り問題に対処する方法について述べる。
本稿では,GTAP(Game Theory Assisted Pruning)と呼ばれる,予測精度を維持しつつ,ニューラルネットワークのサイズを小さくする手法を提案する。
論文 参考訳(メタデータ) (2023-11-17T11:48:10Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - To Boost or not to Boost: On the Limits of Boosted Neural Networks [67.67776094785363]
ブースティングは分類器のアンサンブルを学ぶ方法である。
ブースティングは決定木に非常に有効であることが示されているが、ニューラルネットワークへの影響は広く研究されていない。
単一のニューラルネットワークは通常、同じ数のパラメータを持つ小さなニューラルネットワークの強化されたアンサンブルよりもよく一般化される。
論文 参考訳(メタデータ) (2021-07-28T19:10:03Z) - Neural Rule Ensembles: Encoding Sparse Feature Interactions into Neural
Networks [3.7277730514654555]
決定木を用いて、関連する特徴とその相互作用をキャプチャし、抽出した関係をニューラルネットワークにエンコードするマッピングを定義する。
同時に、機能選択により、アートツリーベースのアプローチの状況と比較して、コンパクトな表現の学習が可能になる。
論文 参考訳(メタデータ) (2020-02-11T11:22:20Z) - Lossless Compression of Deep Neural Networks [17.753357839478575]
ディープニューラルネットワークは、画像や言語認識など、多くの予測モデリングタスクで成功している。
モバイルデバイスのような限られた計算資源の下でこれらのネットワークをデプロイすることは困難である。
生成した出力を変更せずに、ニューラルネットワークの単位と層を除去するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-01-01T15:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。