論文の概要: xDNN(ASP): Explanation Generation System for Deep Neural Networks powered by Answer Set Programming
- arxiv url: http://arxiv.org/abs/2601.03847v1
- Date: Wed, 07 Jan 2026 12:08:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.493691
- Title: xDNN(ASP): Explanation Generation System for Deep Neural Networks powered by Answer Set Programming
- Title(参考訳): xDNN(ASP):Answer Set Programmingを用いたディープニューラルネットワークのための説明生成システム
- Authors: Ly Ly Trieu, Tran Cao Son,
- Abstract要約: xDNN(ASP)は、グローバルな説明を提供するディープニューラルネットワークのための説明生成システムである。
予測タスクにおいて,xDNN(ASP)は高い精度を維持していることを示す。
- 参考スコア(独自算出の注目度): 1.1936305787902912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable artificial intelligence (xAI) has gained significant attention in recent years. Among other things, explainablility for deep neural networks has been a topic of intensive research due to the meteoric rise in prominence of deep neural networks and their "black-box" nature. xAI approaches can be characterized along different dimensions such as their scope (global versus local explanations) or underlying methodologies (statistic-based versus rule-based strategies). Methods generating global explanations aim to provide reasoning process applicable to all possible output classes while local explanation methods focus only on a single, specific class. SHAP (SHapley Additive exPlanations), a well-known statistical technique, identifies important features of a network. Deep neural network rule extraction method constructs IF-THEN rules that link input conditions to a class. Another approach focuses on generating counterfactuals which help explain how small changes to an input can affect the model's predictions. However, these techniques primarily focus on the input-output relationship and thus neglect the structure of the network in explanation generation. In this work, we propose xDNN(ASP), an explanation generation system for deep neural networks that provides global explanations. Given a neural network model and its training data, xDNN(ASP) extracts a logic program under answer set semantics that-in the ideal case-represents the trained model, i.e., answer sets of the extracted program correspond one-to-one to input-output pairs of the network. We demonstrate experimentally, using two synthetic datasets, that not only the extracted logic program maintains a high-level of accuracy in the prediction task, but it also provides valuable information for the understanding of the model such as the importance of features as well as the impact of hidden nodes on the prediction. The latter can be used as a guide for reducing the number of nodes used in hidden layers, i.e., providing a means for optimizing the network.
- Abstract(参考訳): 近年,説明可能な人工知能(xAI)が注目されている。
ディープ・ニューラルネットワークの可視性は、ディープ・ニューラル・ネットワークの温暖化と、その「ブラックボックス」の性質のため、集中的な研究のトピックとなっている。
xAIアプローチは、スコープ(グローバル対ローカルな説明)や基礎となる方法論(統計ベース対ルールベースの戦略)など、さまざまな次元に沿って特徴付けられる。
グローバルな説明を生成する方法は、すべての可能な出力クラスに適用可能な推論プロセスを提供することを目的としており、一方、ローカルな説明メソッドは単一の特定のクラスにのみフォーカスする。
SHAP(SHapley Additive exPlanations)は、よく知られた統計手法であり、ネットワークの重要な特徴を識別する。
ディープニューラルネットワークルール抽出法は、入力条件をクラスにリンクするIF-THENルールを構成する。
別のアプローチは、入力の小さな変更がモデルの予測にどのように影響するかを説明するのに役立つ反事実の生成に焦点を当てている。
しかし、これらの手法は主に入出力関係に焦点をあて、説明生成においてネットワークの構造を無視する。
本研究では,大域的な説明を提供するディープニューラルネットワークのための説明生成システムであるxDNN(ASP)を提案する。
ニューラルネットワークモデルとそのトレーニングデータが与えられた場合、xDNN(ASP)は、理想的なケースでトレーニングされたモデル、すなわち、抽出されたプログラムの応答セットがネットワークの入力出力ペアに1対1に対応するような、応答セットセマンティクスの下で論理プログラムを抽出する。
2つの合成データセットを用いて,抽出した論理プログラムが予測タスクにおいて高い精度を維持するだけでなく,特徴の重要性や隠れノードの影響など,モデルを理解する上で有用な情報を提供する。
後者は、隠れた層で使われるノードの数を減らし、ネットワークを最適化する手段を提供するガイドとして使用できる。
関連論文リスト
- Neural Reasoning Networks: Efficient Interpretable Neural Networks With Automatic Textual Explanations [45.974930902038494]
本稿では,新しいニューラルシンボリックアーキテクチャであるニューラル推論ネットワーク(NRN)を提案する。
トレーニングアルゴリズム(R-NRN)は、バックプロップによる降下最適化を用いて、通常通りネットワークの重みを学習するが、また、帯域ベース最適化を用いてネットワーク構造自体を学習する。
R-NRNの説明は、比較したアプローチよりも短いが、より正確な特徴重要度スコアを生成する。
論文 参考訳(メタデータ) (2024-10-10T14:27:12Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Look beyond labels: Incorporating functional summary information in
Bayesian neural networks [11.874130244353253]
予測確率に関する要約情報を組み込むための簡単な手法を提案する。
利用可能な要約情報は、拡張データとして組み込まれ、ディリクレプロセスでモデル化される。
本稿では,タスクの難易度やクラス不均衡をモデルに示す方法について述べる。
論文 参考訳(メタデータ) (2022-07-04T07:06:45Z) - Cardinality-Minimal Explanations for Monotonic Neural Networks [25.212444848632515]
本稿では,単調関数を実装したニューラルモデルに着目して,トラクタビリティを回復できるかどうかを検討する。
関連する決定問題は引き続き難解であるが、有利な時間で解決可能であることを示すことができる。
論文 参考訳(メタデータ) (2022-05-19T23:47:25Z) - Towards Disentangling Information Paths with Coded ResNeXt [11.884259630414515]
ネットワーク全体の機能の透明性を高めるために,我々は新しいアプローチを採っている。
分類のためのニューラルネットワークアーキテクチャを提案し、各クラスに関連する情報が特定の経路を流れる。
論文 参考訳(メタデータ) (2022-02-10T21:45:49Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Distillation of Weighted Automata from Recurrent Neural Networks using a
Spectral Approach [0.0]
本稿では,ディープラーニングと文法推論のギャップを埋める試みである。
言語モデリングのためにトレーニングされたリカレントニューラルネットワークからフォーマルな言語を抽出するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-09-28T07:04:15Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。