論文の概要: Identify, Align, and Integrate: Matching Knowledge Graphs to Commonsense
Reasoning Tasks
- arxiv url: http://arxiv.org/abs/2104.10193v1
- Date: Tue, 20 Apr 2021 18:23:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:38:31.265595
- Title: Identify, Align, and Integrate: Matching Knowledge Graphs to Commonsense
Reasoning Tasks
- Title(参考訳): Identify, Align, and Integrate: 知識グラフと常識推論タスクのマッチング
- Authors: Lisa Bauer, Mohit Bansal
- Abstract要約: 与えられたタスクの目的に整合した知識グラフ(KG)を選択することは重要である。
候補者KGがタスクの推論のギャップを正しく識別し、正確に埋めることができるかを評価するアプローチを示す。
このkg-to-taskマッチングを,知識-タスク識別,知識-タスクアライメント,知識-タスク統合という3つのフェーズで示す。
- 参考スコア(独自算出の注目度): 81.03233931066009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrating external knowledge into commonsense reasoning tasks has shown
progress in resolving some, but not all, knowledge gaps in these tasks. For
knowledge integration to yield peak performance, it is critical to select a
knowledge graph (KG) that is well-aligned with the given task's objective. We
present an approach to assess how well a candidate KG can correctly identify
and accurately fill in gaps of reasoning for a task, which we call KG-to-task
match. We show this KG-to-task match in 3 phases: knowledge-task
identification, knowledge-task alignment, and knowledge-task integration. We
also analyze our transformer-based KG-to-task models via commonsense probes to
measure how much knowledge is captured in these models before and after KG
integration. Empirically, we investigate KG matches for the SocialIQA (SIQA)
(Sap et al., 2019b), Physical IQA (PIQA) (Bisk et al., 2020), and MCScript2.0
(Ostermann et al., 2019) datasets with 3 diverse KGs: ATOMIC (Sap et al.,
2019a), ConceptNet (Speer et al., 2017), and an automatically constructed
instructional KG based on WikiHow (Koupaee and Wang, 2018). With our methods we
are able to demonstrate that ATOMIC, an event-inference focused KG, is the best
match for SIQA and MCScript2.0, and that the taxonomic ConceptNet and
WikiHow-based KGs are the best matches for PIQA across all 3 analysis phases.
We verify our methods and findings with human evaluation.
- Abstract(参考訳): 外部知識を常識推論タスクに統合することは、これらのタスクにおける知識のギャップを解消する進歩を示す。
知識統合がピーク性能を得るためには、与えられたタスクの目的に整合した知識グラフ(KG)を選択することが重要である。
提案手法は,KG-to-task マッチング(KG-to-task match)と呼ばれるタスクの推論のギャップを正しく識別し,正確に埋める手法である。
このkg-to-taskマッチングを,知識-タスク識別,知識-タスクアライメント,知識-タスク統合という3つのフェーズで示す。
また, 変圧器を用いたkg-to-taskモデルをcommonsenseプローブを用いて解析し, kg統合前後のモデルにおける知識の獲得度を測定した。
ATOMIC(Sap et al., 2019a),ConceptNet(Speer et al., 2017), WikiHow(Koupaee and Wang, 2018), MCScript2.0(Ostermann et al., 2019)の3種類のKGデータセットを用いて,SocialIQA(Sap et al., 2019b), Physical IQA(PIQA)(Bisk et al., 2020), MCScript2.0(Ostermann et al., 2019)のKGマッチについて検討を行った。
我々の方法では、イベント推論に焦点を当てたKGであるATOMICが、SIQAとMCScript2.0にとってベストマッチであり、分類学的ConceptNetとWikiHowベースのKGが、3つの分析フェーズでPIQAのベストマッチであることを示すことができる。
我々はその方法と知見を人的評価で検証する。
関連論文リスト
- Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Knowledge Graphs Querying [4.548471481431569]
我々は、KGクエリのために開発された様々な学際的なトピックと概念を統一することを目的としている。
KGとクエリ埋め込み、マルチモーダルKG、KG-QAの最近の進歩は、ディープラーニング、IR、NLP、コンピュータビジョンドメインから来ている。
論文 参考訳(メタデータ) (2023-05-23T19:32:42Z) - Structure Pretraining and Prompt Tuning for Knowledge Graph Transfer [22.8376402253312]
知識グラフ事前学習モデルKGTransformerを提案する。
サンプルサブグラフを入力として,KGTransformerを3つの自己教師型タスクで事前訓練する。
我々はKGTransformerを3つのタスク、トリプル分類、ゼロショット画像分類、質問応答で評価する。
論文 参考訳(メタデータ) (2023-03-03T02:58:17Z) - ChatGPT versus Traditional Question Answering for Knowledge Graphs:
Current Status and Future Directions Towards Knowledge Graph Chatbots [7.2676028986202]
知識グラフ(KG)のための会話型AIと質問応答システム(QAS)はどちらも新興研究分野である。
QASは、自然言語質問を理解して翻訳することで、KGから最新の情報を検索し、データベースエンジンがサポートする形式的なクエリに変換する。
本フレームワークでは,現在最先端のQASであるKGQANに対して,ChatGPTとGalacticaの2つの代表的な対話モデルを比較した。
論文 参考訳(メタデータ) (2023-02-08T13:03:27Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Contrastive Representation Learning for Conversational Question
Answering over Knowledge Graphs [9.979689965471428]
本稿では,知識グラフ(KG)に対する会話型質問応答(ConvQA)の課題について述べる。
既存のConvQA法の大部分は、KGからの回答を抽出するために、ゴールド論理形式のクエリが利用できることを厳格に仮定した完全な監視信号に依存している。
そこで本稿では,KG経路を効果的にランク付けするコントラスト表現型学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-09T23:11:58Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z) - KACC: A Multi-task Benchmark for Knowledge Abstraction, Concretization
and Completion [99.47414073164656]
包括的知識グラフ(KG)は、インスタンスレベルのエンティティグラフとオントロジーレベルの概念グラフを含む。
2ビューのKGは、知識の抽象化、包括化、完成に関する人間の能力を「シミュレーション」するためのモデルのためのテストベッドを提供する。
我々は,データセットのスケール,タスクカバレッジ,難易度の観点から,既存のベンチマークを改善した統一KGベンチマークを提案する。
論文 参考訳(メタデータ) (2020-04-28T16:21:57Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。