論文の概要: Modeling Context in Answer Sentence Selection Systems on a Latency
Budget
- arxiv url: http://arxiv.org/abs/2101.12093v1
- Date: Thu, 28 Jan 2021 16:24:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 18:20:17.816142
- Title: Modeling Context in Answer Sentence Selection Systems on a Latency
Budget
- Title(参考訳): 遅延予算に基づく文選択システムにおける文脈のモデル化
- Authors: Rujun Han, Luca Soldaini, Alessandro Moschitti
- Abstract要約: 本稿では,AS2モデルに文脈情報を効率的に組み込む手法を提案する。
各回答候補について、まず教師なし類似性手法を用いて、その原文から関連文を抽出する。
マルチウェイアテンションアーキテクチャを活用してコンテキストを効率的にエンコードする私たちのベストなアプローチは、AS2の非問合せ状態よりも6%から11%改善し、システムレイテンシに最小限の影響を与えます。
- 参考スコア(独自算出の注目度): 87.45819843513598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Answer Sentence Selection (AS2) is an efficient approach for the design of
open-domain Question Answering (QA) systems. In order to achieve low latency,
traditional AS2 models score question-answer pairs individually, ignoring any
information from the document each potential answer was extracted from. In
contrast, more computationally expensive models designed for machine reading
comprehension tasks typically receive one or more passages as input, which
often results in better accuracy. In this work, we present an approach to
efficiently incorporate contextual information in AS2 models. For each answer
candidate, we first use unsupervised similarity techniques to extract relevant
sentences from its source document, which we then feed into an efficient
transformer architecture fine-tuned for AS2. Our best approach, which leverages
a multi-way attention architecture to efficiently encode context, improves 6%
to 11% over noncontextual state of the art in AS2 with minimal impact on system
latency. All experiments in this work were conducted in English.
- Abstract(参考訳): 回答文選択(AS2)は、オープンドメインの質問回答(QA)システムを設計するための効率的なアプローチです。
低レイテンシを実現するため、従来のAS2モデルは質問応答ペアを個別にスコアし、各潜在的な回答が抽出された文書から情報を無視する。
対照的に、機械読解タスク用に設計されたより計算的に高価なモデルは、通常、入力として1つ以上の通路を受け取ります。
本稿では,AS2モデルに文脈情報を効率的に組み込む手法を提案する。
回答候補ごとに、まず教師なしの類似技術を使用してソース文書から関連する文を抽出し、次にAS2用に微調整された効率的なトランスフォーマーアーキテクチャに供給します。
マルチウェイアテンションアーキテクチャを利用してコンテキストを効率的にエンコードする私たちのベストなアプローチは、AS2の非コンテキスト状態よりも6%から11%改善し、システムのレイテンシに最小限の影響を与えます。
この研究のすべての実験は英語で行われた。
関連論文リスト
- Datasets for Multilingual Answer Sentence Selection [59.28492975191415]
ヨーロッパ5言語(フランス語、ドイツ語、イタリア語、ポルトガル語、スペイン語)でAS2のための新しい高品質データセットを導入する。
その結果、我々のデータセットは、堅牢で強力な多言語AS2モデルを作成する上で重要なものであることが示唆された。
論文 参考訳(メタデータ) (2024-06-14T16:50:29Z) - In Situ Answer Sentence Selection at Web-scale [120.69820139008138]
Passage-based Extracting Answer Sentence In-place (PEASI)は、Webスケール設定に最適化されたAS2の新しい設計である。
PEASIをマルチタスク学習フレームワークでトレーニングし,各コンポーネント間の特徴共有を促進する。
実験により、PEASIはAS2の現在の最先端設定、すなわち文を独立してランク付けするためのポイントワイズモデルを6.51%精度で効果的に上回っている。
論文 参考訳(メタデータ) (2022-01-16T06:36:00Z) - Reference-based Weak Supervision for Answer Sentence Selection using Web
Data [87.18646699292293]
完全自動大規模データパイプラインであるReference-based Weak Supervision (RWS)を紹介する。
RWSは豊富なWebデータから高品質な教師付き回答を抽出する。
我々の実験は、生成したデータが常にTANDAを支えていることを示している。
論文 参考訳(メタデータ) (2021-04-18T19:41:17Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z) - A Study on Efficiency, Accuracy and Document Structure for Answer
Sentence Selection [112.0514737686492]
本稿では,単語関連エンコーダとともに,原語階の内在的構造を活用すれば,競争的な結果が得られることを論じる。
私たちのモデルはWikiQAデータセットでトレーニングするのに9.5秒かかります。
論文 参考訳(メタデータ) (2020-03-04T22:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。