論文の概要: Logic Explained Networks
- arxiv url: http://arxiv.org/abs/2108.05149v1
- Date: Wed, 11 Aug 2021 10:55:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 16:07:45.351186
- Title: Logic Explained Networks
- Title(参考訳): Logic Explained Networks
- Authors: Gabriele Ciravegna, Pietro Barbiero, Francesco Giannini, Marco Gori,
Pietro Li\'o, Marco Maggini, Stefano Melacci
- Abstract要約: ネットワークのマインドフルな設計が,論理説明ネットワーク(LEN)と呼ばれる解釈可能なディープラーニングモデルのファミリにつながることを示す。
LENは入力を人間の理解可能な述語にのみ要求し、単純な一階述語論理(FOL)の式で説明を提供する。
LENは、決定木やベイズルールリストのような、確立されたホワイトボックスモデルよりも優れた分類が得られる。
- 参考スコア(独自算出の注目度): 27.800583434727805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The large and still increasing popularity of deep learning clashes with a
major limit of neural network architectures, that consists in their lack of
capability in providing human-understandable motivations of their decisions. In
situations in which the machine is expected to support the decision of human
experts, providing a comprehensible explanation is a feature of crucial
importance. The language used to communicate the explanations must be formal
enough to be implementable in a machine and friendly enough to be
understandable by a wide audience. In this paper, we propose a general approach
to Explainable Artificial Intelligence in the case of neural architectures,
showing how a mindful design of the networks leads to a family of interpretable
deep learning models called Logic Explained Networks (LENs). LENs only require
their inputs to be human-understandable predicates, and they provide
explanations in terms of simple First-Order Logic (FOL) formulas involving such
predicates. LENs are general enough to cover a large number of scenarios.
Amongst them, we consider the case in which LENs are directly used as special
classifiers with the capability of being explainable, or when they act as
additional networks with the role of creating the conditions for making a
black-box classifier explainable by FOL formulas. Despite supervised learning
problems are mostly emphasized, we also show that LENs can learn and provide
explanations in unsupervised learning settings. Experimental results on several
datasets and tasks show that LENs may yield better classifications than
established white-box models, such as decision trees and Bayesian rule lists,
while providing more compact and meaningful explanations.
- Abstract(参考訳): ディープラーニングの普及と、ニューラルネットワークアーキテクチャの大きな限界との衝突は、人間の理解に足る意思決定のモチベーションを提供する能力の欠如に起因している。
機械が人間の専門家の決定を支持すると期待されている状況では、理解可能な説明を提供することが重要な特徴である。
説明を伝えるために使われる言語は、機械で実装できるほど形式的であり、幅広い聴衆が理解できるほど友好的でなければならない。
本稿では、ニューラルネットワークにおける説明可能な人工知能に対する一般的なアプローチを提案し、ニューラルネットワークのマインドフルな設計が、論理説明ネットワーク(LEN)と呼ばれる解釈可能な深層学習モデルのファミリにつながることを示す。
LENは入力を人間の理解可能な述語にのみ要求し、そのような述語を含む単純な一階述語論理(FOL)の式で説明を提供する。
LENは、多数のシナリオをカバーするのに十分な一般性を持っている。
このうち、LENが説明可能な特別な分類器として直接使用される場合や、FOL式で説明可能なブラックボックス分類器を作るための条件を作成する際に追加のネットワークとして機能する場合を考える。
教師付き学習問題は主に強調されているが,教師なし学習環境ではlensが学習し,説明を提供できることも示している。
いくつかのデータセットとタスクの実験結果から、LENは決定木やベイズ規則リストのような確立されたホワイトボックスモデルよりも、よりコンパクトで意味のある説明を提供しながら、より良い分類が得られることが示されている。
関連論文リスト
- Even-if Explanations: Formal Foundations, Priorities and Complexity [18.126159829450028]
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T11:38:58Z) - LaRS: Latent Reasoning Skills for Chain-of-Thought Reasoning [61.7853049843921]
Chain-of-Thoughting(CoT)プロンプトは、大規模言語モデル(LLM)のための一般的なコンテキスト内学習手法である。
本稿では、教師なし学習を用いて有理数の潜在空間表現を生成するLaRS(Lalatnt Reasoning Skills)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-07T20:36:10Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Extending Logic Explained Networks to Text Classification [5.289706151390118]
我々はLENpを提案し、入力語を摂動することで局所的な説明を改善し、テキスト分類でそれをテストする。
その結果, (i) LENp は LIME よりも感度, 忠実度, (ii) 論理的説明は LIME の機能評価よりも有用で, ユーザフレンドリであることがわかった。
論文 参考訳(メタデータ) (2022-11-04T16:12:03Z) - Join-Chain Network: A Logical Reasoning View of the Multi-head Attention
in Transformer [59.73454783958702]
本稿では,多くの結合演算子を連結して出力論理式をモデル化するシンボリック推論アーキテクチャを提案する。
特に,このような結合鎖のアンサンブルが'ツリー構造'の1次論理式であるFOETの広い部分集合を表現できることを実証する。
変圧器における多頭部自己保持モジュールは,確率的述語空間における結合作用素の結合境界を実装する特別なニューラル演算子として理解することができる。
論文 参考訳(メタデータ) (2022-10-06T07:39:58Z) - LAP: An Attention-Based Module for Concept Based Self-Interpretation and
Knowledge Injection in Convolutional Neural Networks [2.8948274245812327]
本稿では,自己解釈性を実現するため,新しい注意型プール層であるLAP(Local Attention Pooling)を提案する。
LAPはどんな畳み込みニューラルネットワークにも簡単にプラグインできる。
LAPは一般的なホワイトボックスの説明法よりも、人間の理解しやすく忠実なモデル解釈を提供する。
論文 参考訳(メタデータ) (2022-01-27T21:10:20Z) - Explanatory Learning: Beyond Empiricism in Neural Networks [12.622254638367504]
本稿では,記号列に埋もれた既存の知識を機械が活用するためのフレームワークである説明学習を紹介する。
ELでは、プログラム合成で行われているように、記号の解釈の負担は、人間や厳格な人間のコード化されたコンパイラに委ねられません。
我々は、CRNが経験主義的エンド・ツー・エンド・エンド・アプローチの類似したサイズとアーキテクチャよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-25T10:21:53Z) - Expressive Explanations of DNNs by Combining Concept Analysis with ILP [0.3867363075280543]
我々は,dnn(feed-forward convolutional deep neural network)の理論的根拠をグローバル,表現的,言語的に説明するために,ネットワークが学習した本質的特徴を用いた。
我々の説明は元々のブラックボックスモデルに忠実であることを示している。
論文 参考訳(メタデータ) (2021-05-16T07:00:27Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。