論文の概要: Entropy-based Logic Explanations of Neural Networks
- arxiv url: http://arxiv.org/abs/2106.06804v1
- Date: Sat, 12 Jun 2021 15:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:36:30.278035
- Title: Entropy-based Logic Explanations of Neural Networks
- Title(参考訳): エントロピーに基づくニューラルネットワークの論理説明
- Authors: Pietro Barbiero, Gabriele Ciravegna, Francesco Giannini, Pietro Li\'o,
Marco Gori, Stefano Melacci
- Abstract要約: 本稿では,ニューラルネットワークから論理的説明を抽出するエンド・ツー・エンドの微分可能な手法を提案する。
この方法はエントロピーに基づく基準に依存しており、最も関連する概念を自動的に識別する。
i) このエントロピーに基づく基準は, 臨床データからコンピュータビジョンへの安全クリティカル領域における簡潔な論理的説明の蒸留を可能にし, (ii) 提案手法は分類精度において最先端のホワイトボックスモデルより優れていることを示す。
- 参考スコア(独自算出の注目度): 24.43410365335306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence has rapidly emerged since lawmakers have
started requiring interpretable models for safety-critical domains.
Concept-based neural networks have arisen as explainable-by-design methods as
they leverage human-understandable symbols (i.e. concepts) to predict class
memberships. However, most of these approaches focus on the identification of
the most relevant concepts but do not provide concise, formal explanations of
how such concepts are leveraged by the classifier to make predictions. In this
paper, we propose a novel end-to-end differentiable approach enabling the
extraction of logic explanations from neural networks using the formalism of
First-Order Logic. The method relies on an entropy-based criterion which
automatically identifies the most relevant concepts. We consider four different
case studies to demonstrate that: (i) this entropy-based criterion enables the
distillation of concise logic explanations in safety-critical domains from
clinical data to computer vision; (ii) the proposed approach outperforms
state-of-the-art white-box models in terms of classification accuracy.
- Abstract(参考訳): 説明可能な人工知能は、議員が安全クリティカルドメインの解釈可能なモデルを必要とし始めてから急速に発展してきた。
概念に基づくニューラルネットワークは、人間の理解可能なシンボル(つまり)を活用することによって、説明可能な設計方法として生まれてきた。
クラスメンバーシップを予測することです
しかしながら、これらのアプローチのほとんどは、最も関連する概念の識別に焦点を当てているが、そのような概念がどのように分類器によって予測されるかの簡潔で形式的な説明を提供していない。
本稿では,一階述語論理の形式化を用いたニューラルネットワークからの論理説明の抽出を可能にする,新しいエンドツーエンドの微分可能手法を提案する。
この方法はエントロピーに基づく基準に依存し、最も関連する概念を自動的に識別する。
i) このエントロピーに基づく基準は, 臨床データからコンピュータビジョンへの安全クリティカル領域における簡潔な論理的説明の蒸留を可能にし, (ii) 提案手法は分類精度において最先端のホワイトボックスモデルより優れていることを示す。
関連論文リスト
- Shortcuts and Identifiability in Concept-based Models from a Neuro-Symbolic Lens [19.324263034925796]
概念ベースモデル(concept-based Model)は、入力を高レベルな概念にマッピングする概念抽出器と、これらを予測に変換する推論層を学習するニューラルネットワークである。
概念ベースモデルと推論ショートカット(RS)の新たな接続を確立することでこの問題を研究する。
具体的には、まずRSを概念ベースモデルのより複雑な設定に拡張し、次に概念と推論層の両方を識別するための理論的条件を導出する。
論文 参考訳(メタデータ) (2025-02-16T19:45:09Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Understanding Distributed Representations of Concepts in Deep Neural
Networks without Supervision [25.449397570387802]
本稿では,ニューロンの主部分集合を選択することによって,概念の分散表現を発見する教師なし手法を提案する。
我々の経験から、類似のニューロン活性化状態のインスタンスはコヒーレントな概念を共有する傾向があることが示されている。
データ内のラベルなしサブクラスを特定し、誤分類の原因を検出するために利用することができる。
論文 参考訳(メタデータ) (2023-12-28T07:33:51Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Extensions to Generalized Annotated Logic and an Equivalent Neural
Architecture [4.855957436171202]
本稿では,ニューロシンボリックシステムに対する望ましい基準のリストを提案し,既存のアプローチのいくつかがこれらの基準にどう対処するかを検討する。
次に、等価なニューラルアーキテクチャの作成を可能にするアノテーション付き一般化論理の拡張を提案する。
トレーニングプロセスの継続的な最適化に依存する従来のアプローチとは異なり、当社のフレームワークは、離散最適化を使用する二項化ニューラルネットワークとして設計されている。
論文 参考訳(メタデータ) (2023-02-23T17:39:46Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Logical Credal Networks [87.25387518070411]
本稿では,論理と確率を組み合わせた先行モデルの多くを一般化した表現的確率論的論理である論理的クレダルネットワークを紹介する。
本稿では,不確実性のあるマスターミンドゲームを解くこと,クレジットカード詐欺を検出することを含む,最大後部推論タスクの性能について検討する。
論文 参考訳(メタデータ) (2021-09-25T00:00:47Z) - Plausible Reasoning about EL-Ontologies using Concept Interpolation [27.314325986689752]
本稿では,モデル理論の明確な意味論に基づく帰納的機構を提案する。
我々は、カテゴリーベース誘導の認知モデルと密接に関連している強力なコモンセンス推論機構である推論に焦点を当てた。
論文 参考訳(メタデータ) (2020-06-25T14:19:41Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。