論文の概要: A Neural-symbolic Approach for Ontology-mediated Query Answering
- arxiv url: http://arxiv.org/abs/2106.14052v1
- Date: Sat, 26 Jun 2021 16:05:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 08:27:10.580073
- Title: A Neural-symbolic Approach for Ontology-mediated Query Answering
- Title(参考訳): オントロジーを介する問合せに対するニューラルシンボリックアプローチ
- Authors: Medina Andresel, Csaba Domokos, Daria Stepanova, Trung-Kien Tran
- Abstract要約: 知識グラフ(KG)の低次元ベクトル空間表現は、不完全KG上の共役クエリ(CQ)に対する答えを見つけるために応用されている。
埋め込み空間で動作する不完全KG上でのオントロジーを介するCQ応答に対するニューラルシンボリック手法を提案する。
- 参考スコア(独自算出の注目度): 9.537363976287772
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, low-dimensional vector space representations of knowledge graphs
(KGs) have been applied to find answers to conjunctive queries (CQs) over
incomplete KGs. However, the current methods only focus on inductive reasoning,
i.e. answering CQs by predicting facts based on patterns learned from the data,
and lack the ability of deductive reasoning by applying external domain
knowledge. Such (expert or commonsense) domain knowledge is an invaluable
resource which can be used to advance machine intelligence. To address this
shortcoming, we introduce a neural-symbolic method for ontology-mediated CQ
answering over incomplete KGs that operates in the embedding space. More
specifically, we propose various data augmentation strategies to generate
training queries using query-rewriting based methods and then exploit a novel
loss function for training the model. The experimental results demonstrate the
effectiveness of our training strategies and the new loss function, i.e., our
method significantly outperforms the baseline in the settings that require both
inductive and deductive reasoning.
- Abstract(参考訳): 近年、知識グラフ(KGs)の低次元ベクトル空間表現を用いて、不完全KG上の共役クエリ(CQs)に対する解を求める。
しかし、現在の手法は帰納的推論のみに焦点を当てている。
データから学んだパターンに基づいて事実を予測することでcqsに答え、外部のドメイン知識を適用して推論する能力に欠ける。
このような(専門家または常識)ドメイン知識は、機械知の進歩に使用できる貴重なリソースです。
この欠点に対処するために、埋め込み空間で動作する不完全なKG上でオントロジーを介するCQ応答のニューラルシンボリック手法を導入する。
より具体的には、クエリーリライトベースのメソッドを使ってトレーニングクエリを生成するための様々なデータ拡張戦略を提案し、モデルのトレーニングに新しい損失関数を利用する。
実験の結果,本手法は帰納的推論と帰納的推論の両方を必要とする設定において,学習戦略の有効性と新たな損失関数の有効性を示す。
関連論文リスト
- Ontology Completion with Natural Language Inference and Concept Embeddings: An Analysis [26.918368764004796]
本研究では,特定のオントロジーから欠落する有能な知識の発見という課題を,よく研究された分類学拡張タスクの一般化として考察する。
1行の作業は、このタスクを自然言語推論(NLI)問題として扱い、不足した知識を特定するために言語モデルによって取得された知識に依存します。
別の研究の行では、概念埋め込みを使用して、カテゴリベースの帰納のための認知モデルからインスピレーションを得て、異なる概念が共通しているものを特定する。
論文 参考訳(メタデータ) (2024-03-25T21:46:35Z) - Extending Transductive Knowledge Graph Embedding Models for Inductive
Logical Relational Inference [0.5439020425819]
この研究は、従来の帰納的知識グラフの埋め込みアプローチと、より最近の帰納的関係予測モデルとのギャップを埋めるものである。
本稿では,帰納的埋め込み法で学習した表現を活用して,推論時に導入された新しい実体の表現を帰納的設定で推論する一般調和拡張法を提案する。
多数の大規模知識グラフ埋め込みベンチマークの実験において、この手法は、帰納的知識グラフ埋め込みモデルの機能を拡張するためのものであり、いくつかのシナリオでは、そのような帰納的タスクのために明示的に導出される最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-09-07T15:24:18Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Rethinking Complex Queries on Knowledge Graphs with Neural Link Predictors [58.340159346749964]
本稿では,証明可能な推論能力を備えた複雑なクエリを用いたエンドツーエンド学習を支援するニューラルシンボリック手法を提案する。
これまでに検討されていない10種類の新しいクエリを含む新しいデータセットを開発する。
提案手法は,新しいデータセットにおいて先行手法を著しく上回り,既存データセットにおける先行手法を同時に上回っている。
論文 参考訳(メタデータ) (2023-04-14T11:35:35Z) - Deep Manifold Learning for Reading Comprehension and Logical Reasoning
Tasks with Polytuplet Loss [0.0]
理解と論理的推論タスクを読む機械学習モデルの開発における現在のトレンドは、論理的ルールを理解し、活用するモデルの能力を改善することに焦点を当てている。
この研究は、新しい損失関数と、他のモデルよりも解釈可能なコンポーネントを持つモデルアーキテクチャを提供することに焦点を当てている。
我々の戦略は、絶対的精度よりも相対的精度を強調し、理論的には不完全な知識で正しい答えを生成できる。
論文 参考訳(メタデータ) (2023-04-03T14:48:34Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - MERIt: Meta-Path Guided Contrastive Learning for Logical Reasoning [63.50909998372667]
テキストの論理的ReasonIngに対して,Metaパスを用いたコントラスト学習手法であるMERItを提案する。
2つの新しい戦略が我々の手法の必須要素である。
論文 参考訳(メタデータ) (2022-03-01T11:13:00Z) - Explaining, Evaluating and Enhancing Neural Networks' Learned
Representations [2.1485350418225244]
より効率的で効率的な表現への障害ではなく、いかに説明可能性が助けになるかを示す。
我々は,2つの新しいスコアを定義して,潜伏埋め込みの難易度と難易度を評価する。
表現学習課題の訓練において,提案したスコアを制約として採用することで,モデルの下流性能が向上することを示す。
論文 参考訳(メタデータ) (2022-02-18T19:00:01Z) - Decision-Theoretic Question Generation for Situated Reference
Resolution: An Empirical Study and Computational Model [11.543386846947554]
遠隔実験者と対話しながらツールセットを整理する仮想ロボットを参加者が操作する対話型研究から対話データを分析した。
あいまいさを解消するために用いられる質問型の分布や、参照分解過程における対話レベル要因の影響など、多くの新しい結果が得られた。
論文 参考訳(メタデータ) (2021-10-12T19:23:25Z) - AR-LSAT: Investigating Analytical Reasoning of Text [57.1542673852013]
テキストの分析的推論の課題を研究し、1991年から2016年までのロースクール入学試験からの質問からなる新しいデータセットを紹介します。
我々は,この課題をうまくこなすために必要な知識理解と推論能力を分析する。
論文 参考訳(メタデータ) (2021-04-14T02:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。