論文の概要: Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning
- arxiv url: http://arxiv.org/abs/2010.15875v1
- Date: Thu, 29 Oct 2020 18:28:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 22:00:44.134473
- Title: Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning
- Title(参考訳): Retrieve, Program, Repeat: Alternate Meta-learningによる複雑な知識ベース質問応答
- Authors: Yuncheng Hua, Yuan-Fang Li, Gholamreza Haffari, Guilin Qi and Wei Wu
- Abstract要約: 本稿では,弱い監督からプログラマと交互に検索モデルを自動的に学習する手法を提案する。
本システムでは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 56.771557756836906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A compelling approach to complex question answering is to convert the
question to a sequence of actions, which can then be executed on the knowledge
base to yield the answer, aka the programmer-interpreter approach. Use similar
training questions to the test question, meta-learning enables the programmer
to adapt to unseen questions to tackle potential distributional biases quickly.
However, this comes at the cost of manually labeling similar questions to learn
a retrieval model, which is tedious and expensive. In this paper, we present a
novel method that automatically learns a retrieval model alternately with the
programmer from weak supervision, i.e., the system's performance with respect
to the produced answers. To the best of our knowledge, this is the first
attempt to train the retrieval model with the programmer jointly. Our system
leads to state-of-the-art performance on a large-scale task for complex
question answering over knowledge bases. We have released our code at
https://github.com/DevinJake/MARL.
- Abstract(参考訳): 複雑な質問への回答に対する説得力のあるアプローチは、質問を一連のアクションに変換することである。
同様のトレーニング質問をテスト質問に使用すれば、メタラーニングによってプログラマは、潜在的な分布バイアスに素早く取り組むために、目に見えない質問に適応することができる。
しかし、これは同じような質問を手動でラベル付けして検索モデルを学ぶコストがかかる。
本稿では,プログラマと交互に検索モデルを自動的に学習する手法を提案する。
我々の知る限りでは、これはプログラマと共同で検索モデルをトレーニングする最初の試みである。
本システムは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
私たちはコードをhttps://github.com/devinjake/marlでリリースしました。
関連論文リスト
- Multimodal Reranking for Knowledge-Intensive Visual Question Answering [77.24401833951096]
回答生成のための知識候補のランク付け品質を向上させるためのマルチモーダル・リランカを提案する。
OK-VQAとA-OKVQAの実験は、遠隔監視からのマルチモーダルリランカーが一貫した改善をもたらすことを示している。
論文 参考訳(メタデータ) (2024-07-17T02:58:52Z) - Self-Bootstrapped Visual-Language Model for Knowledge Selection and Question Answering [11.183845003492964]
私たちはPassage Retrieval(DPR)を使って関連する知識を取得し、モデルが質問に答える手助けをします。
DPRは自然言語空間における検索を行うが、画像情報の総合的な取得は保証されない。
本稿では、視覚言語モデルを利用して、DPRが検索した重要な知識を選択し、質問に答える新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T07:44:20Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - Attention-based model for predicting question relatedness on Stack
Overflow [0.0]
Stack Overflowにおける質問間の関連性を自動的に予測するアテンションベースの文対相互作用モデル(ASIM)を提案する。
ASIMは、Precision、Recall、Micro-F1評価メトリクスのベースラインアプローチを大幅に改善しました。
私たちのモデルは、Ask Ubuntuの重複質問検出タスクでもうまく機能します。
論文 参考訳(メタデータ) (2021-03-19T12:18:03Z) - Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning [55.08037694027792]
複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:34:55Z) - Procedural Generation of STEM Quizzes [0.0]
手続き型質問生成は、STEMクイズのための多様で形式的で最新の適応型質問バンクを作成する作業を大幅に促進する、と我々は主張する。
我々は,スクリプトベースの質問生成のための概念実証Python APIを提示し,評価する。
私たちのシステムの副次的な利点は、質問銀行がPythonコードに実際に埋め込まれており、コラボレーション、バージョン管理、メンテナンスタスクが非常に簡単であることです。
論文 参考訳(メタデータ) (2020-09-08T17:15:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。