論文の概要: Combining Inductive and Deductive Reasoning for Query Answering over
Incomplete Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2106.14052v2
- Date: Thu, 31 Aug 2023 15:10:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 21:38:03.264556
- Title: Combining Inductive and Deductive Reasoning for Query Answering over
Incomplete Knowledge Graphs
- Title(参考訳): 不完全知識グラフを用いた問合せ応答に対する帰納的推論と帰納的推論の組み合わせ
- Authors: Medina Andresel, Trung-Kien Tran, Csaba Domokos, Pasquale Minervini,
Daria Stepanova
- Abstract要約: 非完全知識グラフ(KG)に対する埋め込み型クエリ応答の現在の手法は、帰納的推論のみに焦点を当てている。
埋め込みモデルの顕著な代表者に対する様々な統合戦略を提案する。
インダクティブ推論とインダクティブ推論の両方を必要とする設定の改善は、HITS@3で20%から55%に向上した。
- 参考スコア(独自算出の注目度): 12.852658691077643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current methods for embedding-based query answering over incomplete Knowledge
Graphs (KGs) only focus on inductive reasoning, i.e., predicting answers by
learning patterns from the data, and lack the complementary ability to do
deductive reasoning, which requires the application of domain knowledge to
infer further information. To address this shortcoming, we investigate the
problem of incorporating ontologies into embedding-based query answering models
by defining the task of embedding-based ontology-mediated query answering. We
propose various integration strategies into prominent representatives of
embedding models that involve (1) different ontology-driven data augmentation
techniques and (2) adaptation of the loss function to enforce the ontology
axioms. We design novel benchmarks for the considered task based on the LUBM
and the NELL KGs and evaluate our methods on them. The achieved improvements in
the setting that requires both inductive and deductive reasoning are from 20%
to 55% in HITS@3.
- Abstract(参考訳): 非完全知識グラフ(KGs)への埋め込みに基づく問い合わせ応答の現在の手法は、帰納的推論(inductive reasoning)、すなわち、データからパターンを学習することで回答を予測することのみに焦点を当てており、さらなる情報を推論するためにドメイン知識の応用を必要とする帰納的推論を補完する能力が欠如している。
そこで本研究では,オントロジーを組込み型問合せモデルに組み込む際の課題を,組込み型問合せ型問合せモデルを用いて検討する。
本研究では,(1)異なるオントロジ駆動データ拡張手法,(2)損失関数の適用によるオントロジ公理の強制を伴う組込みモデルの代表者に対して,様々な統合戦略を提案する。
LUBM と NELL KG に基づく検討課題のための新しいベンチマークを設計し,提案手法の評価を行った。
インダクティブ推論とインダクティブ推論の両方を必要とする設定の改善は、HITS@3で20%から55%に向上した。
関連論文リスト
- Ontology Completion with Natural Language Inference and Concept Embeddings: An Analysis [26.918368764004796]
本研究では,特定のオントロジーから欠落する有能な知識の発見という課題を,よく研究された分類学拡張タスクの一般化として考察する。
1行の作業は、このタスクを自然言語推論(NLI)問題として扱い、不足した知識を特定するために言語モデルによって取得された知識に依存します。
別の研究の行では、概念埋め込みを使用して、カテゴリベースの帰納のための認知モデルからインスピレーションを得て、異なる概念が共通しているものを特定する。
論文 参考訳(メタデータ) (2024-03-25T21:46:35Z) - Extending Transductive Knowledge Graph Embedding Models for Inductive
Logical Relational Inference [0.5439020425819]
この研究は、従来の帰納的知識グラフの埋め込みアプローチと、より最近の帰納的関係予測モデルとのギャップを埋めるものである。
本稿では,帰納的埋め込み法で学習した表現を活用して,推論時に導入された新しい実体の表現を帰納的設定で推論する一般調和拡張法を提案する。
多数の大規模知識グラフ埋め込みベンチマークの実験において、この手法は、帰納的知識グラフ埋め込みモデルの機能を拡張するためのものであり、いくつかのシナリオでは、そのような帰納的タスクのために明示的に導出される最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-09-07T15:24:18Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Rethinking Complex Queries on Knowledge Graphs with Neural Link Predictors [58.340159346749964]
本稿では,証明可能な推論能力を備えた複雑なクエリを用いたエンドツーエンド学習を支援するニューラルシンボリック手法を提案する。
これまでに検討されていない10種類の新しいクエリを含む新しいデータセットを開発する。
提案手法は,新しいデータセットにおいて先行手法を著しく上回り,既存データセットにおける先行手法を同時に上回っている。
論文 参考訳(メタデータ) (2023-04-14T11:35:35Z) - Deep Manifold Learning for Reading Comprehension and Logical Reasoning
Tasks with Polytuplet Loss [0.0]
理解と論理的推論タスクを読む機械学習モデルの開発における現在のトレンドは、論理的ルールを理解し、活用するモデルの能力を改善することに焦点を当てている。
この研究は、新しい損失関数と、他のモデルよりも解釈可能なコンポーネントを持つモデルアーキテクチャを提供することに焦点を当てている。
我々の戦略は、絶対的精度よりも相対的精度を強調し、理論的には不完全な知識で正しい答えを生成できる。
論文 参考訳(メタデータ) (2023-04-03T14:48:34Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - MERIt: Meta-Path Guided Contrastive Learning for Logical Reasoning [63.50909998372667]
テキストの論理的ReasonIngに対して,Metaパスを用いたコントラスト学習手法であるMERItを提案する。
2つの新しい戦略が我々の手法の必須要素である。
論文 参考訳(メタデータ) (2022-03-01T11:13:00Z) - Explaining, Evaluating and Enhancing Neural Networks' Learned
Representations [2.1485350418225244]
より効率的で効率的な表現への障害ではなく、いかに説明可能性が助けになるかを示す。
我々は,2つの新しいスコアを定義して,潜伏埋め込みの難易度と難易度を評価する。
表現学習課題の訓練において,提案したスコアを制約として採用することで,モデルの下流性能が向上することを示す。
論文 参考訳(メタデータ) (2022-02-18T19:00:01Z) - Decision-Theoretic Question Generation for Situated Reference
Resolution: An Empirical Study and Computational Model [11.543386846947554]
遠隔実験者と対話しながらツールセットを整理する仮想ロボットを参加者が操作する対話型研究から対話データを分析した。
あいまいさを解消するために用いられる質問型の分布や、参照分解過程における対話レベル要因の影響など、多くの新しい結果が得られた。
論文 参考訳(メタデータ) (2021-10-12T19:23:25Z) - AR-LSAT: Investigating Analytical Reasoning of Text [57.1542673852013]
テキストの分析的推論の課題を研究し、1991年から2016年までのロースクール入学試験からの質問からなる新しいデータセットを紹介します。
我々は,この課題をうまくこなすために必要な知識理解と推論能力を分析する。
論文 参考訳(メタデータ) (2021-04-14T02:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。