論文の概要: Effective FAQ Retrieval and Question Matching With Unsupervised
Knowledge Injection
- arxiv url: http://arxiv.org/abs/2010.14049v1
- Date: Tue, 27 Oct 2020 05:03:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 12:42:46.547634
- Title: Effective FAQ Retrieval and Question Matching With Unsupervised
Knowledge Injection
- Title(参考訳): 教師なし知識注入による効果的なFAQ検索と質問マッチング
- Authors: Wen-Ting Tseng, Tien-Hong Lo, Yung-Chang Hsu and Berlin Chen
- Abstract要約: 質問に対して適切な回答を得るための文脈言語モデルを提案する。
また、ドメイン固有の単語間のトポロジ関連関係を教師なしの方法で活用することについても検討する。
提案手法のバリエーションを,公開可能な中国語FAQデータセット上で評価し,さらに大規模質問マッチングタスクに適用し,コンテキスト化する。
- 参考スコア(独自算出の注目度): 10.82418428209551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Frequently asked question (FAQ) retrieval, with the purpose of providing
information on frequent questions or concerns, has far-reaching applications in
many areas, where a collection of question-answer (Q-A) pairs compiled a priori
can be employed to retrieve an appropriate answer in response to a user\u2019s
query that is likely to reoccur frequently. To this end, predominant approaches
to FAQ retrieval typically rank question-answer pairs by considering either the
similarity between the query and a question (q-Q), the relevance between the
query and the associated answer of a question (q-A), or combining the clues
gathered from the q-Q similarity measure and the q-A relevance measure. In this
paper, we extend this line of research by combining the clues gathered from the
q-Q similarity measure and the q-A relevance measure and meanwhile injecting
extra word interaction information, distilled from a generic (open domain)
knowledge base, into a contextual language model for inferring the q-A
relevance. Furthermore, we also explore to capitalize on domain-specific
topically-relevant relations between words in an unsupervised manner, acting as
a surrogate to the supervised domain-specific knowledge base information. As
such, it enables the model to equip sentence representations with the knowledge
about domain-specific and topically-relevant relations among words, thereby
providing a better q-A relevance measure. We evaluate variants of our approach
on a publicly-available Chinese FAQ dataset, and further apply and
contextualize it to a large-scale question-matching task, which aims to search
questions from a QA dataset that have a similar intent as an input query.
Extensive experimental results on these two datasets confirm the promising
performance of the proposed approach in relation to some state-of-the-art ones.
- Abstract(参考訳): 頻繁に聞かれる質問(faq)の検索は、頻繁な質問や関心事に関する情報を提供することを目的としており、多くの分野において広範囲にわたって応用されている。
この目的のために、faq検索に対する主要なアプローチは、質問と質問(q-q)の類似性、質問の関連回答(q-a)との関連性、あるいはq-q類似度尺度とq-a関連尺度から収集された手がかりを組み合わせることによって、質問-回答対をランク付けする。
本稿では,q-Q類似度尺度とq-A関連度尺度から収集した手がかりと,汎用(オープンドメイン)知識ベースから抽出した余分な単語相互作用情報を,q-A関連度を推定するための文脈言語モデルに注入することにより,この研究の行を拡張した。
さらに,ドメイン固有知識ベース情報の補助として機能し,単語間のドメイン固有トポロジ関連関係を教師なしで活用することについても検討する。
これにより、文表現と、単語間のドメイン固有および局所的関連関係に関する知識を対応付けることができ、より優れたq-a関連尺度が得られる。
提案手法のバリエーションを,公開可能な中国のFAQデータセット上で評価するとともに,入力クエリと類似した意図を持つQAデータセットから質問を検索する大規模質問マッチングタスクに適用し,コンテキスト化する。
これら2つのデータセットの大規模な実験結果から,提案手法の有望な性能が確認された。
関連論文リスト
- Boosting Conversational Question Answering with Fine-Grained Retrieval-Augmentation and Self-Check [25.63538452425097]
本稿では,対話型質問応答のための細粒度検索と自己チェックを組み込んだ対話レベルのRAG手法を提案する。
特に,本手法は,対話型質問精算器,きめ細かい検索器,自己チェックに基づく応答生成器の3つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-03-27T04:20:18Z) - MFBE: Leveraging Multi-Field Information of FAQs for Efficient Dense
Retrieval [1.7403133838762446]
本稿では,複数組み合わせのFAQフィールドを利用するバイエンコーダベースのクエリ-FAQマッチングモデルを提案する。
本モデルでは,内部およびオープンデータセットにおけるFAQ検索タスクにおいて,約27%,20%の精度でトップ1の精度を実現している。
論文 参考訳(メタデータ) (2023-02-23T12:02:49Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - A Benchmark for Generalizable and Interpretable Temporal Question
Answering over Knowledge Bases [67.33560134350427]
TempQA-WDは時間的推論のためのベンチマークデータセットである。
Wikidataは、最も頻繁にキュレーションされ、公開されている知識ベースである。
論文 参考訳(メタデータ) (2022-01-15T08:49:09Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - SituatedQA: Incorporating Extra-Linguistic Contexts into QA [7.495151447459443]
SituatedQA(SituatedQA)は,時間的・地理的文脈を考慮に入れた質問に対して,システムが正しい回答を提示しなければならない,オープン検索型QAデータセットである。
質問を求める情報のかなりの割合は、文脈に依存した回答であることがわかった。
我々の研究は、既存のモデルが頻繁に更新される、あるいは珍しい場所から回答を得るのに苦労していることを示している。
論文 参考訳(メタデータ) (2021-09-13T17:53:21Z) - Attention-based model for predicting question relatedness on Stack
Overflow [0.0]
Stack Overflowにおける質問間の関連性を自動的に予測するアテンションベースの文対相互作用モデル(ASIM)を提案する。
ASIMは、Precision、Recall、Micro-F1評価メトリクスのベースラインアプローチを大幅に改善しました。
私たちのモデルは、Ask Ubuntuの重複質問検出タスクでもうまく機能します。
論文 参考訳(メタデータ) (2021-03-19T12:18:03Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Answering Any-hop Open-domain Questions with Iterative Document
Reranking [62.76025579681472]
オープンドメインの問に答える統合QAフレームワークを提案する。
提案手法は,シングルホップおよびマルチホップのオープンドメインQAデータセットにおいて,最先端技術に匹敵する性能を継続的に達成する。
論文 参考訳(メタデータ) (2020-09-16T04:31:38Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。