論文の概要: Learning Accurate and Interpretable Decision Rule Sets from Neural
Networks
- arxiv url: http://arxiv.org/abs/2103.02826v1
- Date: Thu, 4 Mar 2021 04:10:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 14:53:15.655057
- Title: Learning Accurate and Interpretable Decision Rule Sets from Neural
Networks
- Title(参考訳): ニューラルネットワークによる正確かつ解釈可能な決定規則セットの学習
- Authors: Litao Qiao, Weijia Wang, Bill Lin
- Abstract要約: 本論文では,分類の解釈可能なモデルとして独立論理則の集合を解読正規形式で学習する新しいパラダイムを提案する。
我々は、ニューラルネットワークを特定の、しかし非常に単純な2層アーキテクチャでトレーニングすることとして、解釈可能な決定ルールセットを学ぶ問題を考える。
- 参考スコア(独自算出の注目度): 5.280792199222362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a new paradigm for learning a set of independent logical
rules in disjunctive normal form as an interpretable model for classification.
We consider the problem of learning an interpretable decision rule set as
training a neural network in a specific, yet very simple two-layer
architecture. Each neuron in the first layer directly maps to an interpretable
if-then rule after training, and the output neuron in the second layer directly
maps to a disjunction of the first-layer rules to form the decision rule set.
Our representation of neurons in this first rules layer enables us to encode
both the positive and the negative association of features in a decision rule.
State-of-the-art neural net training approaches can be leveraged for learning
highly accurate classification models. Moreover, we propose a sparsity-based
regularization approach to balance between classification accuracy and the
simplicity of the derived rules. Our experimental results show that our method
can generate more accurate decision rule sets than other state-of-the-art
rule-learning algorithms with better accuracy-simplicity trade-offs. Further,
when compared with uninterpretable black-box machine learning approaches such
as random forests and full-precision deep neural networks, our approach can
easily find interpretable decision rule sets that have comparable predictive
performance.
- Abstract(参考訳): 本論文では,分類の解釈可能なモデルとして独立論理則の集合を解読正規形式で学習する新しいパラダイムを提案する。
我々は、ニューラルネットワークを特定の、しかし非常に単純な2層アーキテクチャでトレーニングすることとして、解釈可能な決定ルールセットを学ぶ問題を考える。
第1層の各ニューロンはトレーニング後の解釈可能なif-thenルールに直接マップし、第2層の出力ニューロンは第1層ルールの切断に直接マップして決定ルールセットを形成する。
この第1のルール層におけるニューロンの表現は、決定ルールにおける特徴の正の結合と負の結合の両方をエンコードできる。
最先端のニューラルネットワークトレーニングアプローチは、高精度な分類モデルの学習に利用できる。
さらに,分類精度とルールの単純さのバランスをとるために,スパース性に基づく正規化手法を提案する。
実験の結果,本手法は他の最先端ルール学習アルゴリズムよりも精度の高いルールセットを生成できることがわかった。
さらに、ランダムフォレストやフル精度ディープニューラルネットワークなどの解釈不能なブラックボックス機械学習アプローチと比較すると、予測性能に匹敵する解釈可能な決定ルールセットを簡単に見つけることができます。
関連論文リスト
- NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - Neuro-symbolic Rule Learning in Real-world Classification Tasks [75.0907310059298]
pix2ruleのニューラルDNFモジュールを拡張し、実世界のマルチクラスおよびマルチラベル分類タスクにおけるルール学習をサポートする。
多クラス分類において相互排他性を強制するニューラルDNF-EO(Exactly One)と呼ばれる新しい拡張モデルを提案する。
論文 参考訳(メタデータ) (2023-03-29T13:27:14Z) - LEURN: Learning Explainable Univariate Rules with Neural Networks [0.0]
LEURNは、一変量決定ルールを学ぶニューラルネットワークアーキテクチャである。
LEURNは、分類と回帰問題のための30のデータセットにわたる最先端のメソッドに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-03-27T06:34:42Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Neural-based classification rule learning for sequential data [0.0]
本稿では,ルールに基づく二項分類のための局所パターンとグローバルパターンの両方を識別する,新しい可微分完全解釈法を提案する。
解釈可能なニューラルネットワークを備えた畳み込みバイナリニューラルネットワークと、動的に強化された間隔に基づくトレーニング戦略で構成されている。
合成データセットおよびオープンソースペプチドデータセットに対するアプローチの有効性と有用性を示す。
論文 参考訳(メタデータ) (2023-02-22T11:05:05Z) - Towards fuzzification of adaptation rules in self-adaptive architectures [2.730650695194413]
我々は、自己適応型アーキテクチャにおける分析と計画段階にニューラルネットワークを活用することに注力する。
このようなニーズに対処する簡単な選択肢のひとつは、論理ルールに基づいた推論をニューラルネットワークに置き換えることだ。
この連続体の中でナビゲートする方法を示し、元の論理ルールを自然に埋め込むニューラルネットワークアーキテクチャを作成します。
論文 参考訳(メタデータ) (2021-12-17T12:17:16Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Identification of Nonlinear Dynamic Systems Using Type-2 Fuzzy Neural
Networks -- A Novel Learning Algorithm and a Comparative Study [12.77304082363491]
スライディングモード理論に基づく学習アルゴリズムは、タイプ2ファジィニューラルネットワークの前提部分と結果部分の両方を調整するために提案されている。
提案アルゴリズムの安定性は、適切なリアプノフ関数を用いて証明されている。
いくつかの比較結果が得られ、提案アルゴリズムは既存の手法よりも高速な収束速度を持つことを示した。
論文 参考訳(メタデータ) (2021-04-04T23:44:59Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Identifying Learning Rules From Neural Network Observables [26.96375335939315]
学習ルールの異なるクラスは、重み、アクティベーション、即時的な階層的活動変化の集計統計に基づいてのみ分離可能であることを示す。
本研究は, シナプス後活動の電気生理学的記録から得られる活性化パターンが, 学習規則の同定に有効であることを示すものである。
論文 参考訳(メタデータ) (2020-10-22T14:36:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。