論文の概要: PReGAN: Answer Oriented Passage Ranking with Weakly Supervised GAN
- arxiv url: http://arxiv.org/abs/2207.01762v1
- Date: Tue, 5 Jul 2022 01:43:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 14:00:06.424809
- Title: PReGAN: Answer Oriented Passage Ranking with Weakly Supervised GAN
- Title(参考訳): PReGAN: 厳格に監督されたGANによる回答指向のパスランク付け
- Authors: Pan Du, Jian-Yun Nie, Yutao Zhu, Hao Jiang, Lixin Zou, Xiaohui Yan
- Abstract要約: 本稿では,ジェネレーティブ・ディバイサル・ニューラル・ネットワークに基づくパッセージ・リグレードのためのtttPReGANという手法を提案する。
ゴールは、ジェネレータに、トポロジ的に関係があり、答えを含むパスを高くランクさせることである。
- 参考スコア(独自算出の注目度): 34.96355889356033
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Beyond topical relevance, passage ranking for open-domain factoid question
answering also requires a passage to contain an answer (answerability). While a
few recent studies have incorporated some reading capability into a ranker to
account for answerability, the ranker is still hindered by the noisy nature of
the training data typically available in this area, which considers any passage
containing an answer entity as a positive sample. However, the answer entity in
a passage is not necessarily mentioned in relation with the given question. To
address the problem, we propose an approach called \ttt{PReGAN} for Passage
Reranking based on Generative Adversarial Neural networks, which incorporates a
discriminator on answerability, in addition to a discriminator on topical
relevance. The goal is to force the generator to rank higher a passage that is
topically relevant and contains an answer. Experiments on five public datasets
show that \ttt{PReGAN} can better rank appropriate passages, which in turn,
boosts the effectiveness of QA systems, and outperforms the existing approaches
without using external data.
- Abstract(参考訳): トピックの関連性以外にも、オープンドメインのファクトイド質問応答のパスランキングには、回答(解答可能性)を含むパスも必要である。
近年のいくつかの研究では、解答可能性を考慮した読み上げ能力がランクに組み込まれているが、この領域で典型的に利用できるトレーニングデータのノイズの性質は、解答実体を含む任意の節を正のサンプルとみなすのを妨げている。
しかし、ある節の答え実体は、与えられた質問に関して必ずしも言及されない。
そこで本研究では, 応答性に関する判別器と, トピック関連性に関する判別器を組み込んだ, ジェネレーティブ・ディバイサル・ニューラル・ニューラル・ネットワークに基づくパッセージ・リグレードのための「tt{PReGAN}」という手法を提案する。
ゴールは、ジェネレータに、トポロジ的に関係があり、答えを含むパスを高くランクさせることである。
5つの公開データセットの実験によると、 \ttt{PReGAN} は適切なパスをランク付けし、QAシステムの有効性を高め、外部データを使わずに既存のアプローチを上回っている。
関連論文リスト
- QPaug: Question and Passage Augmentation for Open-Domain Question Answering of LLMs [5.09189220106765]
オープンドメイン問合せタスクのための大規模言語モデル(LLM)を介してQPaug(Q and passage augmentation)と呼ばれるシンプルで効率的な手法を提案する。
実験の結果,QPaugは従来の最先端技術よりも優れており,既存のRAG法よりも大きな性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-06-20T12:59:27Z) - Passage-specific Prompt Tuning for Passage Reranking in Question Answering with Large Language Models [11.716595438057997]
オープンドメイン質問応答(PSPT)における再ランク付けのためのパス固有プロンプトチューニングを提案する。
PSPTは、学習可能なパス固有のソフトプロンプトを微調整するパラメータ効率の手法である。
我々は,Llama-2-chat-7Bモデルを用いた3つの公開領域質問応答データセットの広範な実験を行った。
論文 参考訳(メタデータ) (2024-05-31T07:43:42Z) - Towards Reliable and Factual Response Generation: Detecting Unanswerable
Questions in Information-Seeking Conversations [16.99952884041096]
生成的AIモデルは、そのようなシステムに対するユーザの信頼を損なう可能性のある幻覚の課題に直面します。
本稿では,まずコーパス内の関連するパスを識別し,最後にシステム応答にまとめる2段階のプロセスとして,会話情報探索の問題にアプローチする。
具体的には,文レベル分類器を用いて解答の有無を判定し,これらの予測を文レベルに集約し,最後に最終解答可能性推定値に到達する。
論文 参考訳(メタデータ) (2024-01-21T10:15:36Z) - Evidentiality-aware Retrieval for Overcoming Abstractiveness in
Open-Domain Question Answering [29.00167886463793]
本稿では, 証拠パスを注意散逸者から識別するためのEADPR (Evidentiality-Aware Passage Retrieval) を提案する。
提案手法が複数の抽象型ODQAタスクにおいて有効であることを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-04-06T12:42:37Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - Double Retrieval and Ranking for Accurate Question Answering [120.69820139008138]
本研究では,トランスフォーマーを用いた解答選択モデルに導入された解答検証ステップが,問合せ解答における解答の精度を大幅に向上させることを示す。
AS2のためのよく知られた3つのデータセットの結果は、最先端の一貫性と大幅な改善を示している。
論文 参考訳(メタデータ) (2022-01-16T06:20:07Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - A Graph-guided Multi-round Retrieval Method for Conversational
Open-domain Question Answering [52.041815783025186]
本稿では,会話のターン間の回答間の関係をモデル化するグラフ誘導検索手法を提案する。
また,検索コンテキストが現在の質問理解に与える影響を検討するために,マルチラウンド関連フィードバック手法を導入することを提案する。
論文 参考訳(メタデータ) (2021-04-17T04:39:41Z) - Visual Question Answering with Prior Class Semantics [50.845003775809836]
候補解のセマンティクスに関連する追加情報を利用する方法を示す。
セマンティック空間における回帰目標を用いて解答予測プロセスを拡張する。
提案手法は,様々な質問タイプに対して,一貫性と精度の向上をもたらす。
論文 参考訳(メタデータ) (2020-05-04T02:46:31Z) - Conversational Question Answering over Passages by Leveraging Word
Proximity Networks [33.59664244897881]
CROWNは、経路応答を持つ会話型QAのための教師なしかつ効果的なシステムである。
複数のターンにまたがる複数のコンテキストの伝搬をサポートする。
CROWNはTREC CAsTデータで評価され、ニューラルネットワークのプールにおいて上述の性能を達成した。
論文 参考訳(メタデータ) (2020-04-27T19:30:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。