論文の概要: EXplainable Neural-Symbolic Learning (X-NeSyL) methodology to fuse deep
learning representations with expert knowledge graphs: the MonuMAI cultural
heritage use case
- arxiv url: http://arxiv.org/abs/2104.11914v1
- Date: Sat, 24 Apr 2021 09:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 15:02:49.453360
- Title: EXplainable Neural-Symbolic Learning (X-NeSyL) methodology to fuse deep
learning representations with expert knowledge graphs: the MonuMAI cultural
heritage use case
- Title(参考訳): 知識グラフと深層学習表現を融合させる説明可能なニューラル・シンボリック・ラーニング(X-NeSyL)手法:モヌマイ文化遺産利用事例
- Authors: Natalia D\'iaz-Rodr\'iguez, Alberto Lamas, Jules Sanchez, Gianni
Franchi, Ivan Donadello, Siham Tabik, David Filliat, Policarpo Cruz, Rosana
Montes, Francisco Herrera
- Abstract要約: 本稿では,記号表現と深部表現の両方を学習するためのeXplainable Neural-symbolic Learning (X-NeSyL)手法を提案する。
X-NeSyL手法は、それぞれ推論時と訓練時の2つの説明概念の具体的使用を含む。
MonuMAIデータセットを用いたX-NeSyL手法を記念碑的ファサード画像分類に導入し,説明性と性能の向上を実証した。
- 参考スコア(独自算出の注目度): 13.833923272291853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The latest Deep Learning (DL) models for detection and classification have
achieved an unprecedented performance over classical machine learning
algorithms. However, DL models are black-box methods hard to debug, interpret,
and certify. DL alone cannot provide explanations that can be validated by a
non technical audience. In contrast, symbolic AI systems that convert concepts
into rules or symbols -- such as knowledge graphs -- are easier to explain.
However, they present lower generalisation and scaling capabilities. A very
important challenge is to fuse DL representations with expert knowledge. One
way to address this challenge, as well as the performance-explainability
trade-off is by leveraging the best of both streams without obviating domain
expert knowledge. We tackle such problem by considering the symbolic knowledge
is expressed in form of a domain expert knowledge graph. We present the
eXplainable Neural-symbolic learning (X-NeSyL) methodology, designed to learn
both symbolic and deep representations, together with an explainability metric
to assess the level of alignment of machine and human expert explanations. The
ultimate objective is to fuse DL representations with expert domain knowledge
during the learning process to serve as a sound basis for explainability.
X-NeSyL methodology involves the concrete use of two notions of explanation at
inference and training time respectively: 1) EXPLANet: Expert-aligned
eXplainable Part-based cLAssifier NETwork Architecture, a compositional CNN
that makes use of symbolic representations, and 2) SHAP-Backprop, an
explainable AI-informed training procedure that guides the DL process to align
with such symbolic representations in form of knowledge graphs. We showcase
X-NeSyL methodology using MonuMAI dataset for monument facade image
classification, and demonstrate that our approach improves explainability and
performance.
- Abstract(参考訳): 検出と分類のための最新のディープラーニング(DL)モデルは、古典的な機械学習アルゴリズムよりも前例のないパフォーマンスを達成した。
しかし、DLモデルはデバッグ、解釈、認証が難しいブラックボックスメソッドである。
DLだけでは、技術的でない聴衆が検証できる説明は提供できない。
対照的に、知識グラフのような概念をルールやシンボルに変換するシンボリックAIシステムは、説明が容易です。
しかし、それらはより低い一般化とスケーリング能力を示す。
非常に重要な課題は、DL表現を専門家の知識と融合させることである。
この課題に対処する1つの方法は、パフォーマンス-説明可能性のトレードオフと同様に、ドメインエキスパートの知識を損なうことなく両方のストリームを最大限活用することである。
我々は、その記号的知識をドメインエキスパートの知識グラフとして表現することで、この問題に取り組む。
本稿では,記号表現と深部表現の両方を学習するために設計されたeXplainable Neural-symbolic Learning(X-NeSyL)方法論と,機械と人間の専門的説明のアライメントレベルを評価するための説明可能性指標を提案する。
究極的な目的は、学習過程のエキスパートドメイン知識とDL表現を融合させ、説明可能性の健全な基盤として機能させることである。
x-nesylの方法論は、推論とトレーニング時の説明の2つの概念をそれぞれ具体化したものである: 1)explanet: expert-aligned explainedable part-based classifier network architecture, a compositional cnn that make use of symbolic representations, 2) shap-backprop, the explanationable ai-informed training procedure that the dl process to align with such symbolic representations in form of knowledge graphs。
記念碑ファサード画像分類のためのMonuMAIデータセットを用いたX-NeSyL手法を紹介し,提案手法が説明可能性と性能を向上させることを示す。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - SpecXAI -- Spectral interpretability of Deep Learning Models [11.325580593182414]
XAIは、モデルの難解な性質を誘惑し、それらの行動に対する理解のレベルを促進する技術を開発しようとしている。
ここでは、SpecXAIと呼ぶフレームワークの形で、XAIメソッドへのコントリビューションを示す。
このフレームワークは,ネットワークの理解だけでなく,線形解釈可能なシンボル表現にも利用できることを示す。
論文 参考訳(メタデータ) (2023-02-20T12:36:54Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - MAML and ANIL Provably Learn Representations [60.17417686153103]
我々は,MAMLとANILという2つの有名なメタ学習手法が,与えられたタスク群間の共通表現を学習可能であることを証明した。
具体的には、よく知られたマルチタスク線形表現学習環境では、指数関数的に高速な速度で接地トラス表現を復元することができる。
解析の結果,MAMLとANILがベースとなる表現を回復させる駆動力は,モデルの最終層に適応していることが判明した。
論文 参考訳(メタデータ) (2022-02-07T19:43:02Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - RELAX: Representation Learning Explainability [10.831313203043514]
本稿では、帰属に基づく表現の説明のための最初のアプローチであるRELAXを提案する。
ReLAXは、入力とマスクアウトされた自身のバージョンの間の表現空間における類似性を測定することで表現を説明する。
我々はRELAXの理論的解釈を提供し、教師なし学習を用いて訓練された特徴抽出器を新規に解析する。
論文 参考訳(メタデータ) (2021-12-19T14:51:31Z) - Semantics of the Black-Box: Can knowledge graphs help make deep learning
systems more interpretable and explainable? [4.2111286819721485]
近年のディープラーニング(DL)の革新は、個人や社会に大きな影響を与える可能性がある。
DLモデルのブラックボックスの性質と大量のデータへの過度依存は、システムの解釈可能性と説明可能性に課題をもたらす。
本稿では,知識グラフとして提供される知識が,知識注入学習を用いたDL手法にどのように組み込まれているかを示す。
論文 参考訳(メタデータ) (2020-10-16T22:55:23Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。