論文の概要: Context-based Transformer Models for Answer Sentence Selection
- arxiv url: http://arxiv.org/abs/2006.01285v1
- Date: Mon, 1 Jun 2020 21:52:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 06:06:39.918666
- Title: Context-based Transformer Models for Answer Sentence Selection
- Title(参考訳): 文選択のための文脈ベース変換器モデル
- Authors: Ivano Lauriola and Alessandro Moschitti
- Abstract要約: 本稿では,文選択作業における文脈情報の役割を分析する。
本稿では,ローカルとグローバルの2種類のコンテキストを活用するTransformerベースのアーキテクチャを提案する。
その結果,トランスフォーマーモデルにおける局所コンテキストとグローバルコンテキストの組み合わせは,解答文選択の精度を著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 109.96739477808134
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: An important task for the design of Question Answering systems is the
selection of the sentence containing (or constituting) the answer from
documents relevant to the asked question. Most previous work has only used the
target sentence to compute its score with the question as the models were not
powerful enough to also effectively encode additional contextual information.
In this paper, we analyze the role of the contextual information in the
sentence selection task, proposing a Transformer based architecture that
leverages two types of contexts, local and global. The former describes the
paragraph containing the sentence, aiming at solving implicit references,
whereas the latter describes the entire document containing the candidate
sentence, providing content-based information. The results on three different
benchmarks show that the combination of local and global contexts in a
Transformer model significantly improves the accuracy in Answer Sentence
Selection.
- Abstract(参考訳): 質問回答システムの設計における重要な課題は、質問に関連する文書から回答を含む(または構成する)文を選択することである。
これまでのほとんどの研究では、モデルが追加の文脈情報も効果的にエンコードするほど強力ではないため、目的の文を使ってスコアを計算しただけであった。
本稿では,文選択作業における文脈情報の役割を解析し,局所的・グローバル的な2種類の文脈を利用するTransformerベースのアーキテクチャを提案する。
前者は暗黙の参照を解決するために文を含む段落を、後者は候補文を含む全文書を記述し、内容に基づく情報を提供する。
3つの異なるベンチマークの結果から,Transformerモデルにおけるローカルコンテキストとグローバルコンテキストの組み合わせは,解答文選択の精度を著しく向上させることが示された。
関連論文リスト
- Question-Context Alignment and Answer-Context Dependencies for Effective
Answer Sentence Selection [38.661155271311515]
本稿では,質問文と回答文の依存関係を候補の最終的な表現に明示的に組み込むことにより,候補のスコアリングを改善することを提案する。
提案手法は, WikiQA や WDRASS など一般的な AS2 ベンチマークにおいて大幅な改善を実現し, すべてのベンチマークで新たな最先端のベンチマークが得られた。
論文 参考訳(メタデータ) (2023-06-03T20:59:19Z) - HPE:Answering Complex Questions over Text by Hybrid Question Parsing and
Execution [92.69684305578957]
テキストQAにおける質問解析と実行の枠組みを提案する。
提案したフレームワークは、トップダウンの質問パースとして、ボトムアップの回答バックトラックとみなすことができる。
MuSiQue,2WikiQA,HotpotQA,およびNQに関する実験により,提案した解析およびハイブリッド実行フレームワークが,教師付き,少数ショット,ゼロショット設定における既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2023-05-12T22:37:06Z) - Pre-training Transformer Models with Sentence-Level Objectives for
Answer Sentence Selection [99.59693674455582]
本稿では,文書内および文書間における段落レベルの意味論を取り入れた3つの新しい文レベルトランスフォーマー事前学習目標を提案する。
3つのパブリックなAS2データセットと1つの産業用AS2データセットに関する実験は、ベースラインモデルよりも事前訓練されたトランスフォーマーの実証的な優位性を実証している。
論文 参考訳(メタデータ) (2022-05-20T22:39:00Z) - Paragraph-based Transformer Pre-training for Multi-Sentence Inference [99.59693674455582]
マルチ候補推論タスクの微調整に使用する場合,一般的な事前学習型トランスフォーマーは性能が良くないことを示す。
次に、複数の入力文にまたがる段落レベルの意味をモデル化する新しい事前学習目標を提案する。
論文 参考訳(メタデータ) (2022-05-02T21:41:14Z) - Question rewriting? Assessing its importance for conversational question
answering [0.6449761153631166]
本研究では,SCAI(Search-Oriented Conversational AI)共有タスクに特化して設計された対話型質問応答システムを提案する。
特に,質問書き直しモジュールの異なるバリエーションを検討した。
我々のシステムは共有タスクにおいて最高の性能を達成し、システム全体の性能に対する会話コンテキスト表現の重要性を強調した。
論文 参考訳(メタデータ) (2022-01-22T23:31:25Z) - Text Simplification for Comprehension-based Question-Answering [7.144235435987265]
広く使われているSQuADデータセットの簡易バージョンであるSimple-SQuADをリリースする。
新たに作成したコーパスをベンチマークし,SQuADに基づく質問応答課題における単純化プロセスの効果を検討するためのアブレーション研究を行った。
論文 参考訳(メタデータ) (2021-09-28T18:48:00Z) - Modeling Context in Answer Sentence Selection Systems on a Latency
Budget [87.45819843513598]
本稿では,AS2モデルに文脈情報を効率的に組み込む手法を提案する。
各回答候補について、まず教師なし類似性手法を用いて、その原文から関連文を抽出する。
マルチウェイアテンションアーキテクチャを活用してコンテキストを効率的にエンコードする私たちのベストなアプローチは、AS2の非問合せ状態よりも6%から11%改善し、システムレイテンシに最小限の影響を与えます。
論文 参考訳(メタデータ) (2021-01-28T16:24:48Z) - Dynamic Context Selection for Document-level Neural Machine Translation
via Reinforcement Learning [55.18886832219127]
文書レベルの翻訳における動的コンテキストの選択に有効な手法を提案する。
動的文脈文の選択と活用を促進するために,新しい報酬を提案する。
実験により,提案手法は異なるソース文に対して適応的な文脈文を選択することができることが示された。
論文 参考訳(メタデータ) (2020-10-09T01:05:32Z) - Word Embedding-based Text Processing for Comprehensive Summarization and
Distinct Information Extraction [1.552282932199974]
オンラインレビューの分析に特化して設計された2つの自動テキスト処理フレームワークを提案する。
最初のフレームワークは、本質的な文章を抽出してレビューデータセットを要約することである。
第2のフレームワークは、複数の異なる質問に対する回答を抽出するように訓練された質問回答ニューラルネットワークモデルに基づいている。
論文 参考訳(メタデータ) (2020-04-21T02:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。