論文の概要: Combining Sub-Symbolic and Symbolic Methods for Explainability
- arxiv url: http://arxiv.org/abs/2112.01844v1
- Date: Fri, 3 Dec 2021 10:57:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 21:10:29.501670
- Title: Combining Sub-Symbolic and Symbolic Methods for Explainability
- Title(参考訳): 説明可能性のためのサブシンボリック法とシンボリック法の組み合わせ
- Authors: Anna Himmelhuber, Stephan Grimm, Sonja Zillner, Mitchell Joblin,
Martin Ringsquandl and Thomas Runkler
- Abstract要約: GNN意思決定プロセスに関する洞察を提供するために、いくつかのサブシンボリックアプローチが開発されている。
これらは、可能性を説明するための最初の重要なステップですが、生成された説明は、AIの専門家でないユーザにとって理解しがたいものです。
サブシンボリックな手法とシンボリックな手法を組み合わせた概念的アプローチを人間中心の説明に導入する。
- 参考スコア(独自算出の注目度): 1.3777144060953146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Similarly to other connectionist models, Graph Neural Networks (GNNs) lack
transparency in their decision-making. A number of sub-symbolic approaches have
been developed to provide insights into the GNN decision making process. These
are first important steps on the way to explainability, but the generated
explanations are often hard to understand for users that are not AI experts. To
overcome this problem, we introduce a conceptual approach combining
sub-symbolic and symbolic methods for human-centric explanations, that
incorporate domain knowledge and causality. We furthermore introduce the notion
of fidelity as a metric for evaluating how close the explanation is to the
GNN's internal decision making process. The evaluation with a chemical dataset
and ontology shows the explanatory value and reliability of our method.
- Abstract(参考訳): 他のコネクショナリストモデルと同様に、グラフニューラルネットワーク(GNN)は意思決定に透明性を欠いている。
GNN意思決定プロセスに関する洞察を提供するために、いくつかのサブシンボリックアプローチが開発されている。
これらは説明可能性への道のりにおける最初の重要なステップだが、生成された説明は、aiの専門家ではないユーザーにとっては理解が難しいことが多い。
この問題を克服するために,ドメイン知識と因果関係を組み込んだサブシンボリック手法とシンボリック手法を組み合わせた概念的アプローチを導入する。
さらに,GNNの内部意思決定プロセスにどの程度近いかを評価する指標として,忠実度の概念を導入する。
化学データセットとオントロジーによる評価は,提案手法の説明的価値と信頼性を示す。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Generative Explanations for Graph Neural Network: Methods and
Evaluations [16.67839967139831]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクにおいて最先端のパフォーマンスを達成する。
GNNのブラックボックスの性質は、解釈可能性と信頼性を制限している。
GNNの意思決定ロジックを明らかにするために,多くの説明可能性手法が提案されている。
論文 参考訳(メタデータ) (2023-11-09T22:07:15Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - EiX-GNN : Concept-level eigencentrality explainer for graph neural
networks [0.0]
本稿では,グラフニューラルネットワークモデルに適したソーシャルアウェアの説明手法を提案する。
我々の手法は、説明プロセスの根底にある人間依存的な側面を考慮に入れている。
論文 参考訳(メタデータ) (2022-06-07T07:45:45Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Entropy-based Logic Explanations of Neural Networks [24.43410365335306]
本稿では,ニューラルネットワークから論理的説明を抽出するエンド・ツー・エンドの微分可能な手法を提案する。
この方法はエントロピーに基づく基準に依存しており、最も関連する概念を自動的に識別する。
i) このエントロピーに基づく基準は, 臨床データからコンピュータビジョンへの安全クリティカル領域における簡潔な論理的説明の蒸留を可能にし, (ii) 提案手法は分類精度において最先端のホワイトボックスモデルより優れていることを示す。
論文 参考訳(メタデータ) (2021-06-12T15:50:47Z) - A Peek Into the Reasoning of Neural Networks: Interpreting with
Structural Visual Concepts [38.215184251799194]
直感的な構造的視覚概念で分類NNを解釈するフレームワーク(VRX)を提案する。
ナレッジ蒸留によって、VRXはNNの推論プロセスを模倣する一歩を踏み出すことができることを示す。
論文 参考訳(メタデータ) (2021-05-01T15:47:42Z) - Distilling neural networks into skipgram-level decision lists [4.109840601429086]
スキップグラム上の決定リスト(ルールとも呼ばれる)を用いてRNNを説明するパイプラインを提案する。
提案手法は,高い説明忠実度と定性的に解釈可能な規則を持続的に達成することを発見した。
論文 参考訳(メタデータ) (2020-05-14T16:25:42Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。