論文の概要: A Fast Interpretable Fuzzy Tree Learner
- arxiv url: http://arxiv.org/abs/2512.11616v1
- Date: Fri, 12 Dec 2025 14:51:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.811131
- Title: A Fast Interpretable Fuzzy Tree Learner
- Title(参考訳): 高速解釈可能なファジィツリー学習装置
- Authors: Javier Fumanal-Idocin, Raquel Fernandez-Peralta, Javier Andreu-Perez,
- Abstract要約: ファジィ規則に基づくシステムは、主に解釈可能な意思決定に使われてきた。
解釈には、意味のある言語的分割とルールベースの小さなサイズの両方が必要である。
本稿では,古典的な木分割アルゴリズムをクリップルールからファジィツリーに適応させる手法を提案する。
- 参考スコア(独自算出の注目度): 2.564905016909138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fuzzy rule-based systems have been mostly used in interpretable decision-making because of their interpretable linguistic rules. However, interpretability requires both sensible linguistic partitions and small rule-base sizes, which are not guaranteed by many existing fuzzy rule-mining algorithms. Evolutionary approaches can produce high-quality models but suffer from prohibitive computational costs, while neural-based methods like ANFIS have problems retaining linguistic interpretations. In this work, we propose an adaptation of classical tree-based splitting algorithms from crisp rules to fuzzy trees, combining the computational efficiency of greedy algoritms with the interpretability advantages of fuzzy logic. This approach achieves interpretable linguistic partitions and substantially improves running time compared to evolutionary-based approaches while maintaining competitive predictive performance. Our experiments on tabular classification benchmarks proof that our method achieves comparable accuracy to state-of-the-art fuzzy classifiers with significantly lower computational cost and produces more interpretable rule bases with constrained complexity. Code is available in: https://github.com/Fuminides/fuzzy_greedy_tree_public
- Abstract(参考訳): ファジィ規則に基づくシステムは、主に解釈可能な言語規則のために解釈可能な意思決定に使われてきた。
しかし、解釈可能性には意味のある言語分割と、既存のファジィルールマイニングアルゴリズムでは保証されていない小さなルールベースサイズの両方が必要である。
進化的アプローチは高品質なモデルを生成することができるが、計算コストの制限に悩まされる一方、ANFISのようなニューラルネットワーク手法は言語解釈の維持に問題がある。
本研究では,古典的木分割アルゴリズムをクリップ規則からファジィ木へ適応させ,グリーディアルゴリサムの計算効率とファジィ論理の解釈可能性の利点を組み合わせた。
このアプローチは解釈可能な言語分割を実現し、競争力のある予測性能を維持しながら、進化に基づくアプローチと比較して実行時間を大幅に改善する。
本手法は,計算コストを著しく低減した最先端ファジィ分類器に匹敵する精度を達成し,制約付き複雑性を持つより解釈可能なルールベースを生成することを示す。
https://github.com/Fuminides/fuzzy_greedy_tree_public
関連論文リスト
- (Sometimes) Less is More: Mitigating the Complexity of Rule-based Representation for Interpretable Classification [1.6504157612470989]
ディープニューラルネットワークはAIの実践的な応用に広く利用されているが、その内部構造と複雑さにより、一般的には容易に解釈できない。
本研究では、論理に基づくニューラルネットワークであるMLLP(Multi-layer Logical Perceptron)に$L_0$正規化の微分可能な近似を適用し、その離散解釈可能なバージョンである概念ルールセット(CRS)の複雑さを低減する効果を研究する。
結果は、ネットワーク重みのランダム二元化のような代替手法と比較され、ノイズの少ない手法を用いて、より良い結果が得られるかどうかが決定される。
論文 参考訳(メタデータ) (2025-09-26T14:13:08Z) - Provable Scaling Laws for the Test-Time Compute of Large Language Models [84.00141420901038]
本研究では,大規模言語モデルのテスト時間計算において,証明可能なスケーリング法則を享受する2つのアルゴリズムを提案する。
1つは2段階ノックアウト方式のアルゴリズムで、各候補は複数の相手に対して平均勝利率で評価される。
もう1つは2段階のリーグ方式のアルゴリズムで、各候補は複数の相手に対して平均勝利率で評価される。
論文 参考訳(メタデータ) (2024-11-29T05:29:47Z) - Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価する。
3つのニューラルアーキテクチャに対して、チョムスキー階層の様々な言語について結果を提供する。
我々の貢献は、将来の研究において、言語認識の主張を理論的に健全に検証するのに役立つだろう。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - Explainable AI using expressive Boolean formulas [0.6323908398583082]
我々は,表現力のあるブール式に基づく説明可能なAI(XAI)の解釈可能な機械分類モデルを実装した。
潜在的な応用としては、クレジットスコアリングと医療条件の診断がある。
論文 参考訳(メタデータ) (2023-06-06T19:18:46Z) - Regularized impurity reduction: Accurate decision trees with complexity
guarantees [20.170305081348328]
本稿では,木複雑性の対数近似を保証する木推論アルゴリズムを提案する。
改良されたアルゴリズムは予測精度と木の複雑さのバランスが良好である。
論文 参考訳(メタデータ) (2022-08-23T13:15:19Z) - Efficient Learning of Interpretable Classification Rules [34.27987659227838]
本稿では,命題論理で表現可能な分類規則に対して,最大満足度(MaxSAT)に基づく解釈可能な学習フレームワークIMLIを提案する。
我々の実験では,IMLIは予測精度,解釈可能性,スケーラビリティの最良のバランスを達成している。
論文 参考訳(メタデータ) (2022-05-14T00:36:38Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - NeuroLogic Decoding: (Un)supervised Neural Text Generation with
Predicate Logic Constraints [75.66980495245926]
条件付きテキスト生成は、しばしば語彙的な制約を必要とする。
我々は、ニューラルネットワークモデル -- 教師付きか否かに関わらず -- がフロートテキストを生成することを可能にする、シンプルで効果的なアルゴリズムであるNeuroLogic Decodingを提案する。
この結果から,制御可能な微粒化生成のための大規模ニューラルネットワークの限界と,推論時間アルゴリズムの約束が示唆された。
論文 参考訳(メタデータ) (2020-10-24T11:55:22Z) - Interpretable Rule Discovery Through Bilevel Optimization of Split-Rules
of Nonlinear Decision Trees for Classification Problems [7.8140593450932965]
非線形決定木(NLDT)を用いた単純な数学的規則の集合として分類器を表現する。
各条件ノードにおける分割ルールの構造と決定木の深さを制限することにより、分類器の解釈可能性を保証する。
2~500種類の問題の結果は、より困難で複雑な分類タスクに提案手法を適用することのさらなる範囲を奨励し、開放している。
論文 参考訳(メタデータ) (2020-08-02T06:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。