論文の概要: Explainable Deep RDFS Reasoner
- arxiv url: http://arxiv.org/abs/2002.03514v1
- Date: Mon, 10 Feb 2020 03:20:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:59:46.512750
- Title: Explainable Deep RDFS Reasoner
- Title(参考訳): 説明可能な深層rdfs推論器
- Authors: Bassem Makni, Ibrahim Abdelaziz, James Hendler
- Abstract要約: 本稿では,入力グラフをグラフ単語のシーケンスとして取得するニューラルニューラルネットワークモデルと,推定三重項の符号化を行い,推定三重項の導出を出力する。
我々は、合成データセットと実世界のデータセットの2つのデータセット上で、正当性モデルを評価する。
- 参考スコア(独自算出の注目度): 6.795420391707213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research efforts aiming to bridge the Neural-Symbolic gap for RDFS
reasoning proved empirically that deep learning techniques can be used to learn
RDFS inference rules. However, one of their main deficiencies compared to
rule-based reasoners is the lack of derivations for the inferred triples (i.e.
explainability in AI terms). In this paper, we build on these approaches to
provide not only the inferred graph but also explain how these triples were
inferred. In the graph words approach, RDF graphs are represented as a sequence
of graph words where inference can be achieved through neural machine
translation. To achieve explainability in RDFS reasoning, we revisit this
approach and introduce a new neural network model that gets the input graph--as
a sequence of graph words-- as well as the encoding of the inferred triple and
outputs the derivation for the inferred triple. We evaluated our justification
model on two datasets: a synthetic dataset-- LUBM benchmark-- and a real-world
dataset --ScholarlyData about conferences-- where the lowest validation
accuracy approached 96%.
- Abstract(参考訳): RDFS推論におけるニューラル・シンボリックギャップの橋渡しを目的とした最近の研究は、ディープラーニング技術がRDFS推論規則の学習に利用できることを実証的に証明した。
しかし、ルールに基づく推論と比べ、彼らの主な欠点は推論された三重項(ai用語の説明可能性)の導出の欠如である。
本稿では,推定されたグラフだけでなく,これらの三重項がどのように推論されたかを説明するために,これらのアプローチを構築した。
グラフワードアプローチでは、RDFグラフは、ニューラルネットワーク翻訳によって推論が達成されるグラフワードのシーケンスとして表現される。
RDFS推論における説明可能性を実現するため,提案手法を再検討し,入力グラフをグラフ単語の列として取得するニューラルニューラルネットワークモデルを導入し,推定三重の符号化を行い,推定三重の導出を出力する。
我々は2つのデータセットについて正当化モデルを評価した: 合成データセット--lubmベンチマーク--と実世界のデータセット --会議に関するscholarlydata-- で、最も低い検証精度が96%に近づいた。
関連論文リスト
- Sub-graph Based Diffusion Model for Link Prediction [43.15741675617231]
拡散確率モデル(Denoising Diffusion Probabilistic Models, DDPM)は、例外的な品質を持つ同時代の生成モデルである。
本研究では,ベイズ式による確率推定過程を分解するために,専用設計を用いたリンク予測のための新しい生成モデルを構築した。
提案手法は,(1)再トレーニングを伴わないデータセット間の転送可能性,(2)限られたトレーニングデータに対する有望な一般化,(3)グラフ敵攻撃に対する堅牢性など,多くの利点を示す。
論文 参考訳(メタデータ) (2024-09-13T02:23:55Z) - RDR: the Recap, Deliberate, and Respond Method for Enhanced Language
Understanding [6.738409533239947]
Recap、Deliberate、Respond(RDR)パラダイムは、ニューラルネットワークパイプラインに3つの異なる目的を組み込むことで、この問題に対処する。
これら3つのモデルをカスケードすることにより、ベンチマークをゲームする可能性を軽減し、基盤となるセマンティックパターンをキャプチャする堅牢な方法を確立する。
その結果,標準基準値の最大2%向上とともに,競争基準値と比較して性能が向上した。
論文 参考訳(メタデータ) (2023-12-15T16:41:48Z) - Combating Bilateral Edge Noise for Robust Link Prediction [56.43882298843564]
本稿では,RGIB(Robust Graph Information Bottleneck)という情報理論の原則を提案し,信頼性の高い監視信号を抽出し,表現の崩壊を回避する。
RGIB-SSLとRGIB-REPの2つのインスタンス化は、異なる手法の利点を活用するために検討されている。
6つのデータセットと3つのGNNの様々なノイズシナリオによる実験は、我々のRGIBインスタンスの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-02T12:47:49Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Counterfactual Intervention Feature Transfer for Visible-Infrared Person
Re-identification [69.45543438974963]
視覚赤外人物再識別タスク(VI-ReID)におけるグラフベースの手法は,2つの問題により,悪い一般化に悩まされている。
十分に訓練された入力特徴は、グラフトポロジーの学習を弱め、推論過程において十分に一般化されない。
本稿では,これらの問題に対処するためのCIFT法を提案する。
論文 参考訳(メタデータ) (2022-08-01T16:15:31Z) - Learning-based Point Cloud Registration for 6D Object Pose Estimation in
the Real World [55.7340077183072]
我々は、ポイントクラウドデータからオブジェクトの6Dポーズを推定するタスクに取り組む。
この課題に対処する最近の学習ベースのアプローチは、合成データセットにおいて大きな成功を収めている。
これらの障害の原因を分析し、ソースとターゲットポイントの雲の特徴分布の違いに遡る。
論文 参考訳(メタデータ) (2022-03-29T07:55:04Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - Analytically Tractable Hidden-States Inference in Bayesian Neural
Networks [0.0]
本稿では, ガウス推定能力(TAGI)を活用して隠れ状態の推測を行う方法を示す。
その新しい側面の一つは、特定の目的を達成するために設計された制約を付与することで隠れた状態を推論することである。
論文 参考訳(メタデータ) (2021-07-08T11:11:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。