論文の概要: Connecting the Dots: A Knowledgeable Path Generator for Commonsense
Question Answering
- arxiv url: http://arxiv.org/abs/2005.00691v2
- Date: Sat, 19 Sep 2020 16:38:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 11:39:50.298813
- Title: Connecting the Dots: A Knowledgeable Path Generator for Commonsense
Question Answering
- Title(参考訳): ドットをつなぐ:コモンセンス質問応答のための知識可能なパス生成器
- Authors: Peifeng Wang, Nanyun Peng, Filip Ilievski, Pedro Szekely, Xiang Ren
- Abstract要約: 本稿では、一般的な共通センスQAフレームワークを、知識のあるパスジェネレータで拡張する。
KGの既存のパスを最先端の言語モデルで外挿することで、ジェネレータはテキスト内のエンティティのペアを動的で、潜在的に新しいマルチホップリレーショナルパスに接続することを学びます。
- 参考スコア(独自算出の注目度): 50.72473345911147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commonsense question answering (QA) requires background knowledge which is
not explicitly stated in a given context. Prior works use commonsense knowledge
graphs (KGs) to obtain this knowledge for reasoning. However, relying entirely
on these KGs may not suffice, considering their limited coverage and the
contextual dependence of their knowledge. In this paper, we augment a general
commonsense QA framework with a knowledgeable path generator. By extrapolating
over existing paths in a KG with a state-of-the-art language model, our
generator learns to connect a pair of entities in text with a dynamic, and
potentially novel, multi-hop relational path. Such paths can provide structured
evidence for solving commonsense questions without fine-tuning the path
generator. Experiments on two datasets show the superiority of our method over
previous works which fully rely on knowledge from KGs (with up to 6%
improvement in accuracy), across various amounts of training data. Further
evaluation suggests that the generated paths are typically interpretable,
novel, and relevant to the task.
- Abstract(参考訳): commonsense question answering (qa) は、与えられた文脈で明示的に記述されていない背景知識を必要とする。
先行研究では、この知識を推論するためにコモンセンス知識グラフ(KG)を使用していた。
しかし、これらのkgに完全に依存することは、その範囲と知識の文脈依存を考慮すると十分ではないかもしれない。
本稿では,一般的な共通センスQAフレームワークを知識のある経路生成器で拡張する。
kg内の既存のパスを最先端言語モデルで推定することで、テキスト中の2つのエンティティを動的かつ潜在的に新しいマルチホップ関係パスと接続することを学びます。
このようなパスは、パスジェネレータを微調整することなく、常識的な問題を解くための構造化された証拠を提供することができる。
2つのデータセットにおける実験は、さまざまなトレーニングデータに対して、kgs(最大6%の精度向上)からの知識を十分に依存する、以前の作業よりも優れた方法を示している。
さらに評価すると、生成されたパスは一般的に解釈可能で、新規であり、そのタスクに関連があることが示唆される。
関連論文リスト
- A Prompt-Based Knowledge Graph Foundation Model for Universal In-Context Reasoning [17.676185326247946]
そこで本研究では,テキスト内学習,すなわちKG-ICLを介し,プロンプトに基づくKGファウンデーションモデルを提案する。
クエリにおけるエンティティや関係を発見できないような一般化機能を備えたプロンプトグラフを符号化するために,まず統一トークン化器を提案する。
そこで我々は,プロンプトエンコーディングとKG推論を行う2つのメッセージパッシングニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T06:47:18Z) - Knowledge Graph-Enhanced Large Language Models via Path Selection [58.228392005755026]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションで前例のない性能を示している。
LLMは実際に不正確な出力、すなわち幻覚の問題を発生させることが知られている。
上記の問題に対処する3段階の原理的フレームワークKELPを提案する。
論文 参考訳(メタデータ) (2024-06-19T21:45:20Z) - Uncertainty Management in the Construction of Knowledge Graphs: a Survey [3.5639148953570845]
知識グラフ(KG)は、データ表現の柔軟性のおかげで、企業にとって重要な資産です。
KGを構築するには、様々な異種情報源から知識を抽出する自動手法に頼るのが一般的である。
騒々しく不確実な世界では、知識は信頼できないかもしれないし、データソース間の衝突が起こるかもしれない。
論文 参考訳(メタデータ) (2024-05-27T08:22:52Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - DisentQA: Disentangling Parametric and Contextual Knowledge with
Counterfactual Question Answering [34.70206857546496]
質問応答モデルは通常、推論時間中に「知識」の2つのソースにアクセスする。
答えが与えられた非パラメトリック知識に由来するかどうかは不明である。
本稿では,2つの知識源を解き放つために,QAモデルを訓練する新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2022-11-10T15:34:44Z) - Structured Knowledge Grounding for Question Answering [0.23068481501673416]
本稿では,知識に基づく質問応答の柔軟性,範囲の広さ,構造的推論に言語と知識を活用することを提案する。
具体的には,動的ホップを用いて関連するコンテキストを検索する知識構築手法を考案する。
そして、言語と知識の間のボトルネックを交換する情報を橋渡しする深層融合機構を考案する。
論文 参考訳(メタデータ) (2022-09-17T08:48:50Z) - Exploiting Hybrid Semantics of Relation Paths for Multi-hop Question
Answering Over Knowledge Graphs [31.088325888508137]
本稿では、関係経路のハイブリッドセマンティクスを利用してマルチホップKGQAを改善することを提案する。
関係経路の明示的なテキスト情報と暗黙的なKG構造を,新規な回転・スケールのエンティティリンク予測フレームワークに基づいて統合する。
論文 参考訳(メタデータ) (2022-09-02T08:07:37Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z) - Knowledge-Routed Visual Question Reasoning: Challenges for Deep
Representation Embedding [140.5911760063681]
VQAモデル評価のためのナレッジルーティング視覚質問推論という新しいデータセットを提案する。
視覚ゲノムシーングラフと外部知識ベースの両方に基づいて,制御プログラムを用いて質問応答対を生成する。
論文 参考訳(メタデータ) (2020-12-14T00:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。