論文の概要: Neural Probabilistic Circuits: Enabling Compositional and Interpretable Predictions through Logical Reasoning
- arxiv url: http://arxiv.org/abs/2501.07021v2
- Date: Mon, 20 Jan 2025 04:00:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:17:44.690050
- Title: Neural Probabilistic Circuits: Enabling Compositional and Interpretable Predictions through Logical Reasoning
- Title(参考訳): ニューラル確率回路:論理推論による構成予測と解釈予測の実現
- Authors: Weixin Chen, Simon Yu, Huajie Shao, Lui Sha, Han Zhao,
- Abstract要約: 我々はニューラル確率回路(NPC)と呼ばれる本質的に透明なモデルアーキテクチャを提案する。
NPCは論理的推論を通じて構成的および解釈可能な予測を可能にする。
我々は,NPCが解釈可能性と性能のバランスを保ち,エンドツーエンドのブラックボックスモデルと競合する結果が得られることを示した。
- 参考スコア(独自算出の注目度): 12.97542954564487
- License:
- Abstract: End-to-end deep neural networks have achieved remarkable success across various domains but are often criticized for their lack of interpretability. While post hoc explanation methods attempt to address this issue, they often fail to accurately represent these black-box models, resulting in misleading or incomplete explanations. To overcome these challenges, we propose an inherently transparent model architecture called Neural Probabilistic Circuits (NPCs), which enable compositional and interpretable predictions through logical reasoning. In particular, an NPC consists of two modules: an attribute recognition model, which predicts probabilities for various attributes, and a task predictor built on a probabilistic circuit, which enables logical reasoning over recognized attributes to make class predictions. To train NPCs, we introduce a three-stage training algorithm comprising attribute recognition, circuit construction, and joint optimization. Moreover, we theoretically demonstrate that an NPC's error is upper-bounded by a linear combination of the errors from its modules. To further demonstrate the interpretability of NPC, we provide both the most probable explanations and the counterfactual explanations. Empirical results on four benchmark datasets show that NPCs strike a balance between interpretability and performance, achieving results competitive even with those of end-to-end black-box models while providing enhanced interpretability.
- Abstract(参考訳): エンド・ツー・エンドのディープ・ニューラルネットワークは様々な領域で顕著な成功を収めてきたが、解釈可能性の欠如がしばしば批判されている。
ポストホック説明法はこの問題に対処しようとするが、しばしばこれらのブラックボックスモデルを正確に表現できず、誤った説明や不完全な説明をもたらす。
これらの課題を克服するために、論理的推論による構成的および解釈可能な予測を可能にする、ニューラル確率回路(NPC)と呼ばれる本質的に透明なモデルアーキテクチャを提案する。
特に、NPCは、様々な属性の確率を予測する属性認識モデルと、認識された属性に対する論理的推論を可能にしてクラス予測を行う確率回路上に構築されたタスク予測器の2つのモジュールから構成される。
NPCの学習には,属性認識,回路構成,共同最適化を含む3段階の学習アルゴリズムを導入する。
さらに、理論上、NPCの誤差は、そのモジュールからの誤差の線形結合によって上界であることが示される。
NPCの解釈可能性をさらに示すために、最も可能性の高い説明と反現実的な説明の両方を提供する。
4つのベンチマークデータセットの実証的な結果は、NPCが解釈可能性と性能のバランスを崩し、拡張された解釈可能性を提供しながら、エンドツーエンドのブラックボックスモデルと競合する結果が得られることを示している。
関連論文リスト
- Sparse Prototype Network for Explainable Pedestrian Behavior Prediction [60.80524827122901]
Sparse Prototype Network (SPN) は,歩行者の将来の行動,軌道,ポーズを同時に予測するための説明可能な手法である。
モノセマンティリティとクラスタリングの制約によって規則化されたプロトタイプは、一貫性と人間の理解可能な機能を学ぶ。
論文 参考訳(メタデータ) (2024-10-16T03:33:40Z) - InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - COCKATIEL: COntinuous Concept ranKed ATtribution with Interpretable
ELements for explaining neural net classifiers on NLP tasks [3.475906200620518]
COCKATIELは、新しい、ポストホック、コンセプトベース、モデルに依存しないXAI技術である。
NLP分類タスクでトレーニングされたニューラルネットモデルの最後の層から意味のある説明を生成する。
基礎となるモデルの精度を損なうことなく、新しいモデルをトレーニングする必要もない。
論文 参考訳(メタデータ) (2023-05-11T12:22:20Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Multi-objective Explanations of GNN Predictions [15.563499097282978]
グラフニューラルネットワーク(GNN)は,様々な高精度な予測タスクにおいて最先端のパフォーマンスを達成した。
従来の手法では、より単純なサブグラフを使用して、完全なモデルをシミュレートしたり、予測の原因を特定するために偽造物を使ったりしていた。
論文 参考訳(メタデータ) (2021-11-29T16:08:03Z) - i-Algebra: Towards Interactive Interpretability of Deep Neural Networks [41.13047686374529]
i-Algebraはディープニューラルネットワーク(DNN)を解釈するための対話型フレームワークである。
その中核は原子、構成可能な演算子のライブラリであり、さまざまな入力粒度、異なる推論段階、および異なる解釈の視点からモデル挙動を説明する。
我々は,敵入力の検査,モデル不整合の解消,汚染データのクリーン化など,一連の代表的分析タスクでユーザ研究を行い,その有望なユーザビリティを示す。
論文 参考訳(メタデータ) (2021-01-22T19:22:57Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Interpretable Representations in Explainable AI: From Theory to Practice [7.031336702345381]
解釈可能な表現は、ブラックボックス予測システムをターゲットにした多くの説明器のバックボーンである。
人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
論文 参考訳(メタデータ) (2020-08-16T21:44:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。