論文の概要: Coarse-to-Careful: Seeking Semantic-related Knowledge for Open-domain
Commonsense Question Answering
- arxiv url: http://arxiv.org/abs/2107.01592v1
- Date: Sun, 4 Jul 2021 10:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 03:15:55.394666
- Title: Coarse-to-Careful: Seeking Semantic-related Knowledge for Open-domain
Commonsense Question Answering
- Title(参考訳): オープンドメイン・コモンセンス質問に対する意味的知識の探索
- Authors: Luxi Xing, Yue Hu, Jing Yu, Yuqiang Xie, Wei Peng
- Abstract要約: 背景コモンセンスを必要とする質問に機械が答えるのを助けるために、外部知識を利用するのが一般的である。
本稿では,知識注入を粗大から粗大に制御する意味駆動型知識認識型QAフレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.406729445165857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is prevalent to utilize external knowledge to help machine answer
questions that need background commonsense, which faces a problem that
unlimited knowledge will transmit noisy and misleading information. Towards the
issue of introducing related knowledge, we propose a semantic-driven
knowledge-aware QA framework, which controls the knowledge injection in a
coarse-to-careful fashion. We devise a tailoring strategy to filter extracted
knowledge under monitoring of the coarse semantic of question on the knowledge
extraction stage. And we develop a semantic-aware knowledge fetching module
that engages structural knowledge information and fuses proper knowledge
according to the careful semantic of questions in a hierarchical way.
Experiments demonstrate that the proposed approach promotes the performance on
the CommonsenseQA dataset comparing with strong baselines.
- Abstract(参考訳): 外部知識を活用して、バックグラウンドコモンセンスが必要な質問にマシンが答えるのを助けることが一般的であり、無限の知識がノイズや誤解を招く情報を送信するという問題に直面している。
関連知識の導入をめざして,包括的に知識注入を制御する意味駆動型知識認識QAフレームワークを提案する。
我々は,知識抽出段階における質問の粗い意味をモニタリングする際,抽出した知識をフィルタリングする調整戦略を考案した。
また,構造的知識情報を取り込んで適切な知識を階層的に融合する,意味認識型知識フェッチモジュールを開発した。
実験により,提案手法は強いベースラインと比較し,CommonsenseQAデータセットの性能向上を図っている。
関連論文リスト
- Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Rainier: Reinforced Knowledge Introspector for Commonsense Question
Answering [74.90418840431425]
そこで,Rainier(Reinforced Knowledge Introspector,Reinforced Knowledge Introspector,Reinforced Knowledge Introspector)を提案する。
我々のアプローチは、GPT-3で生成された知識を模倣することから始まり、強化学習を通して独自の知識を生み出すことを学ぶ。
本研究は,GPT-3より桁違いに小さいモデルで生成した知識が,GPT-3から抽出した知識の質を超えうることを報告した最初の事例である。
論文 参考訳(メタデータ) (2022-10-06T17:34:06Z) - Uncertainty-based Visual Question Answering: Estimating Semantic
Inconsistency between Image and Knowledge Base [0.7081604594416336]
KVQAタスクは、画像や質問に対する理解だけでなく、追加の外部知識を必要とする質問に答えることを目的としている。
KVQAの最近の研究は、外部知識をマルチモーダル形式で注入し、より多くの知識が使用されるにつれて、無関係な情報が付加され、質問応答を混乱させる可能性がある。
論文 参考訳(メタデータ) (2022-07-27T01:58:29Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - Incremental Knowledge Based Question Answering [52.041815783025186]
人間と同じように学習能力を段階的に拡張できるインクリメンタルKBQA学習フレームワークを提案します。
具体的には、破滅的な忘れ問題を克服するために、マージン希釈損失と協調選択方法からなる。
包括的な実験は、進化する知識ベースに取り組む際にその効果と効率を示す。
論文 参考訳(メタデータ) (2021-01-18T09:03:38Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z) - Question Answering over Knowledge Base using Language Model Embeddings [0.0]
本稿では,知識ベース質問回答タスクにおける事前学習言語モデルの利用に焦点を当てる。
さらに,これらの埋め込みを知識ベースから質問まで,双方向の注意機構で微調整した。
提案手法は,質問事項を表現するためのマルチヘッドアテンション機構を備えた,単純な畳み込みニューラルネットワークアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2020-10-17T22:59:34Z) - Knowledge Fusion and Semantic Knowledge Ranking for Open Domain Question
Answering [33.920269584939334]
Open Domain Question Answeringは、外部知識を取得し、マルチホップ推論を実行するシステムを必要とする。
我々は,Luceneベースの情報検索システムから取得した知識を再ランク付けするために,意味知識ランキングモデルを学ぶ。
BERTをベースとした言語モデルにおける知識を外部から検索する「知識融合モデル」を提案する。
論文 参考訳(メタデータ) (2020-04-07T03:16:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。