論文の概要: In Situ Answer Sentence Selection at Web-scale
- arxiv url: http://arxiv.org/abs/2201.05984v1
- Date: Sun, 16 Jan 2022 06:36:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 15:02:46.587547
- Title: In Situ Answer Sentence Selection at Web-scale
- Title(参考訳): web スケールでのin situ answer 文選択
- Authors: Zeyu Zhang, Thuy Vu, Alessandro Moschitti
- Abstract要約: Passage-based Extracting Answer Sentence In-place (PEASI)は、Webスケール設定に最適化されたAS2の新しい設計である。
PEASIをマルチタスク学習フレームワークでトレーニングし,各コンポーネント間の特徴共有を促進する。
実験により、PEASIはAS2の現在の最先端設定、すなわち文を独立してランク付けするためのポイントワイズモデルを6.51%精度で効果的に上回っている。
- 参考スコア(独自算出の注目度): 120.69820139008138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current answer sentence selection (AS2) applied in open-domain question
answering (ODQA) selects answers by ranking a large set of possible candidates,
i.e., sentences, extracted from the retrieved text. In this paper, we present
Passage-based Extracting Answer Sentence In-place (PEASI), a novel design for
AS2 optimized for Web-scale setting, that, instead, computes such answer
without processing each candidate individually. Specifically, we design a
Transformer-based framework that jointly (i) reranks passages retrieved for a
question and (ii) identifies a probable answer from the top passages in place.
We train PEASI in a multi-task learning framework that encourages feature
sharing between the components: passage reranker and passage-based answer
sentence extractor. To facilitate our development, we construct a new
Web-sourced large-scale QA dataset consisting of 800,000+ labeled
passages/sentences for 60,000+ questions. The experiments show that our
proposed design effectively outperforms the current state-of-the-art setting
for AS2, i.e., a point-wise model for ranking sentences independently, by 6.51%
in accuracy, from 48.86% to 55.37%. In addition, PEASI is exceptionally
efficient in computing answer sentences, requiring only ~20% inferences
compared to the standard setting, i.e., reranking all possible candidates. We
believe the release of PEASI, both the dataset and our proposed design, can
contribute to advancing the research and development in deploying question
answering services at Web scale.
- Abstract(参考訳): オープンドメイン質問応答(ODQA)に適用された現在回答文選択(AS2)は、検索されたテキストから抽出された文の大量の候補をランク付けして回答を選択する。
本稿では,Webスケール設定に最適化されたAS2の新しい設計であるPassage-based Extracting Answer Sentence In-place (PEASI)を提案する。
具体的には、共同でトランスフォーマーベースのフレームワークを設計する。
(i)質問のために検索されたパスを再引用し、
(ii)最上段から可能な回答を識別する。
PEASIをマルチタスク学習フレームワークでトレーニングし,各コンポーネント間の特徴共有を促進する。
開発を容易にするため,6万以上の質問に対して800,000以上のラベル付きパス/文からなるWebソースによる大規模QAデータセットを構築した。
実験により,提案手法は,as2,すなわち,単語を独立にランク付けするためのポイントワイズモデルに対して,48.86%から55.37%の精度で6.51%の精度で効果的に実現可能であることが示された。
加えて、PEASIは解答文の計算において非常に効率的であり、標準設定、すなわち全ての候補を再ランク付けするよりも20%程度の推論しか必要としない。
我々は、データセットと提案した設計の両方であるPEASIのリリースが、Webスケールで質問応答サービスをデプロイする研究と開発に貢献できると考えている。
関連論文リスト
- Question-Context Alignment and Answer-Context Dependencies for Effective
Answer Sentence Selection [38.661155271311515]
本稿では,質問文と回答文の依存関係を候補の最終的な表現に明示的に組み込むことにより,候補のスコアリングを改善することを提案する。
提案手法は, WikiQA や WDRASS など一般的な AS2 ベンチマークにおいて大幅な改善を実現し, すべてのベンチマークで新たな最先端のベンチマークが得られた。
論文 参考訳(メタデータ) (2023-06-03T20:59:19Z) - Context-Aware Transformer Pre-Training for Answer Sentence Selection [102.7383811376319]
本稿では,文脈AS2のダウンストリーム微調整タスクを模倣する3つの事前学習目標を提案する。
実験の結果,事前学習手法により,いくつかのデータセットにおいて,ベースライン文脈AS2精度を最大8%向上できることがわかった。
論文 参考訳(メタデータ) (2023-05-24T17:10:45Z) - Pre-training Transformer Models with Sentence-Level Objectives for
Answer Sentence Selection [99.59693674455582]
本稿では,文書内および文書間における段落レベルの意味論を取り入れた3つの新しい文レベルトランスフォーマー事前学習目標を提案する。
3つのパブリックなAS2データセットと1つの産業用AS2データセットに関する実験は、ベースラインモデルよりも事前訓練されたトランスフォーマーの実証的な優位性を実証している。
論文 参考訳(メタデータ) (2022-05-20T22:39:00Z) - Exploring Dense Retrieval for Dialogue Response Selection [42.89426092886912]
本研究では,高密度検索モデルを用いて,大規模コーパスや非並列コーパスから直接適切な応答を選択する方法を提案する。
再ランク設定では、その単純さを考えると、その優位性はかなり驚きます。フルランク設定では、私たちは、そのような評価を最初に行うことを強調できます。
論文 参考訳(メタデータ) (2021-10-13T10:10:32Z) - Modeling Context in Answer Sentence Selection Systems on a Latency
Budget [87.45819843513598]
本稿では,AS2モデルに文脈情報を効率的に組み込む手法を提案する。
各回答候補について、まず教師なし類似性手法を用いて、その原文から関連文を抽出する。
マルチウェイアテンションアーキテクチャを活用してコンテキストを効率的にエンコードする私たちのベストなアプローチは、AS2の非問合せ状態よりも6%から11%改善し、システムレイテンシに最小限の影響を与えます。
論文 参考訳(メタデータ) (2021-01-28T16:24:48Z) - Context-based Transformer Models for Answer Sentence Selection [109.96739477808134]
本稿では,文選択作業における文脈情報の役割を分析する。
本稿では,ローカルとグローバルの2種類のコンテキストを活用するTransformerベースのアーキテクチャを提案する。
その結果,トランスフォーマーモデルにおける局所コンテキストとグローバルコンテキストの組み合わせは,解答文選択の精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-06-01T21:52:19Z) - A Study on Efficiency, Accuracy and Document Structure for Answer
Sentence Selection [112.0514737686492]
本稿では,単語関連エンコーダとともに,原語階の内在的構造を活用すれば,競争的な結果が得られることを論じる。
私たちのモデルはWikiQAデータセットでトレーニングするのに9.5秒かかります。
論文 参考訳(メタデータ) (2020-03-04T22:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。