論文の概要: Match$^2$: A Matching over Matching Model for Similar Question
Identification
- arxiv url: http://arxiv.org/abs/2006.11719v1
- Date: Sun, 21 Jun 2020 05:59:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 12:22:55.560492
- Title: Match$^2$: A Matching over Matching Model for Similar Question
Identification
- Title(参考訳): Match$^2$:類似質問識別のためのマッチングモデルに対するマッチング
- Authors: Zizhen Wang, Yixing Fan, Jiafeng Guo, Liu Yang, Ruqing Zhang, Yanyan
Lan, Xueqi Cheng, Hui Jiang, Xiaozhao Wang
- Abstract要約: コミュニティ質問回答(Community Question Answering, CQA)は,質問や回答の提出を自由に行う,知識獲得のための主要な手段となっている。
類似した質問識別は、CQAの中核的なタスクとなり、新しい質問が尋ねられるたびに、アーカイブされたリポジトリから同様の質問を見つけることを目的としている。
自然言語の固有のバリエーション、すなわち、同じ質問をしたり、同じ表現を共有する異なる質問をする方法があるため、この2つの質問の類似性を適切に測定することは、長い間困難であった。
従来の手法では片側の使用が一般的であり、答えを拡張された表現として活用する。
- 参考スコア(独自算出の注目度): 74.7142127303489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Community Question Answering (CQA) has become a primary means for people to
acquire knowledge, where people are free to ask questions or submit answers. To
enhance the efficiency of the service, similar question identification becomes
a core task in CQA which aims to find a similar question from the archived
repository whenever a new question is asked. However, it has long been a
challenge to properly measure the similarity between two questions due to the
inherent variation of natural language, i.e., there could be different ways to
ask a same question or different questions sharing similar expressions. To
alleviate this problem, it is natural to involve the existing answers for the
enrichment of the archived questions. Traditional methods typically take a
one-side usage, which leverages the answer as some expanded representation of
the corresponding question. Unfortunately, this may introduce unexpected noises
into the similarity computation since answers are often long and diverse,
leading to inferior performance. In this work, we propose a two-side usage,
which leverages the answer as a bridge of the two questions. The key idea is
based on our observation that similar questions could be addressed by similar
parts of the answer while different questions may not. In other words, we can
compare the matching patterns of the two questions over the same answer to
measure their similarity. In this way, we propose a novel matching over
matching model, namely Match$^2$, which compares the matching patterns between
two question-answer pairs for similar question identification. Empirical
experiments on two benchmark datasets demonstrate that our model can
significantly outperform previous state-of-the-art methods on the similar
question identification task.
- Abstract(参考訳): コミュニティ質問回答(Community Question Answering, CQA)は,質問や回答の提出を自由に行う,知識獲得のための主要な手段となっている。
サービスの効率を高めるため、cqaでは、新たな質問が求められた時に、アーカイブリポジトリから同様の質問を見つけることを目的とした、同様の質問識別がコアタスクとなる。
しかし、自然言語に固有のバリエーションがあるため、2つの質問の類似性を適切に測定することは長い間困難であり、同じ質問をしたり、同じ表現を共有する異なる質問をする方法が考えられる。
この問題を緩和するには、既存の回答をアーカイブされた質問の豊かさに巻き込むのが自然である。
従来の方法は通常、答えを対応する質問の拡張表現として活用する一方的な方法を取る。
残念ながらこれは、答えが長く多様であり、性能が劣るため、類似性計算に予期せぬノイズをもたらす可能性がある。
本研究では,この回答を2つの質問の橋渡しとして利用する2つの方法を提案する。
キーとなるアイデアは、同じような質問は回答の類似部分によって対処できるが、異なる質問はそうではない、という我々の見解に基づいている。
言い換えれば、2つの質問の一致するパターンを同じ回答で比較し、それらの類似性を測定することができる。
そこで本研究では,マッチングモデルであるMatch$^2$に対して,類似した問合せ識別のための2つの問合せ対のマッチングパターンを比較する。
2つのベンチマークデータセットでの実証実験により、同様の質問識別タスクにおいて、我々のモデルが以前の最先端の手法を大幅に上回ることができることを示した。
関連論文リスト
- QUDSELECT: Selective Decoding for Questions Under Discussion Parsing [90.92351108691014]
Question Under Examination (QUD) は、暗黙の質問を用いて文間の会話関係を明らかにするための談話フレームワークである。
本稿では,QUD基準を考慮したQUD依存構造を選択的に復号する共同学習フレームワークであるQUDSELECTを紹介する。
提案手法は,人的評価において9%,自動評価において4%,最先端のベースラインモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-08-02T06:46:08Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - Selectively Answering Ambiguous Questions [38.83930394700588]
我々は, サンプルモデル出力における繰り返しの定量化が, 退避時期を決定する最も信頼性の高い手法であることが判明した。
その結果,サンプリングに基づく信頼度スコアは,比較的あいまいな質問に対する回答のキャリブレーションに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-05-24T01:25:38Z) - GTM: A Generative Triple-Wise Model for Conversational Question
Generation [36.33685095934868]
オープンドメイン対話型質問生成(CQG)のための階層的変動を考慮した3次元生成モデルを提案する。
提案手法は, 競争ベースラインよりも流線型, コヒーレンス, 多様性の観点から, 質問の質を著しく向上させる。
論文 参考訳(メタデータ) (2021-06-07T14:07:07Z) - Learning with Instance Bundles for Reading Comprehension [61.823444215188296]
質問応答スコアを複数の関連インスタンスで比較する新しい監視手法を提案する。
具体的には、密接に対照的な質問や回答のさまざまな近所でこれらのスコアを正規化します。
2つのデータセット上のインスタンスバンドルによるトレーニングの有効性を実証的に実証する。
論文 参考訳(メタデータ) (2021-04-18T06:17:54Z) - Applying Transfer Learning for Improving Domain-Specific Search
Experience Using Query to Question Similarity [0.0]
本稿では、与えられた入力クエリと事前定義された質問の集合との類似性を計算し、最もよく一致する質問を検索するフレームワークについて論じる。
ファイナンシャルドメインで使用していますが、このフレームワークはドメイン固有の検索エンジンで一般化されており、他のドメインでも使用できます。
論文 参考訳(メタデータ) (2021-01-07T03:27:32Z) - Effective FAQ Retrieval and Question Matching With Unsupervised
Knowledge Injection [10.82418428209551]
質問に対して適切な回答を得るための文脈言語モデルを提案する。
また、ドメイン固有の単語間のトポロジ関連関係を教師なしの方法で活用することについても検討する。
提案手法のバリエーションを,公開可能な中国語FAQデータセット上で評価し,さらに大規模質問マッチングタスクに適用し,コンテキスト化する。
論文 参考訳(メタデータ) (2020-10-27T05:03:34Z) - A Wrong Answer or a Wrong Question? An Intricate Relationship between
Question Reformulation and Answer Selection in Conversational Question
Answering [15.355557454305776]
会話の文脈における質問書き直し(QR)は、この現象により多くの光を放つことができることを示す。
TREC CAsT と QuAC (CANARD) のデータセットを用いて解析を行った。
論文 参考訳(メタデータ) (2020-10-13T06:29:51Z) - Crossing Variational Autoencoders for Answer Retrieval [50.17311961755684]
質問・回答アライメントと質問・回答セマンティクスは、表現を学ぶための重要な信号である。
そこで本研究では,回答を一致させた質問を生成し,回答を一致した質問で生成することで,変分自動エンコーダを横断する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T01:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。