論文の概要: A Simple Approach to Jointly Rank Passages and Select Relevant Sentences
in the OBQA Context
- arxiv url: http://arxiv.org/abs/2109.10497v1
- Date: Wed, 22 Sep 2021 03:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:49:33.958148
- Title: A Simple Approach to Jointly Rank Passages and Select Relevant Sentences
in the OBQA Context
- Title(参考訳): OBQA文脈における共同ランク付けと関連文選択への簡易的アプローチ
- Authors: Man Luo, Shuguang Chen, Chitta Baral
- Abstract要約: 大規模コーパスから関連する情報をどのように選択するかは、推論と推論にとって重要な問題である。
既存のフレームワークの多くは、ディープラーニングモデルを使用して、関連するパスを選択し、対応するパスの文をマッチングすることで、各質問に回答する。
本稿では,これらの問題に対して,文を共同でランク付けし,文を選択することで,シンプルかつ効果的に対処する枠組みを提案する。
- 参考スコア(独自算出の注目度): 15.556928370682094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the open question answering (OBQA) task, how to select the relevant
information from a large corpus is a crucial problem for reasoning and
inference. Some datasets (e.g, HotpotQA) mainly focus on testing the model's
reasoning ability at the sentence level. To overcome this challenge, many
existing frameworks use a deep learning model to select relevant passages and
then answer each question by matching a sentence in the corresponding passage.
However, such frameworks require long inference time and fail to take advantage
of the relationship between passages and sentences. In this work, we present a
simple yet effective framework to address these problems by jointly ranking
passages and selecting sentences. We propose consistency and similarity
constraints to promote the correlation and interaction between passage ranking
and sentence selection. In our experiments, we demonstrate that our framework
can achieve competitive results and outperform the baseline by 28\% in terms of
exact matching of relevant sentences on the HotpotQA dataset.
- Abstract(参考訳): open question answering(obqa)タスクでは、大きなコーパスから関連情報をどのように選択するかが推論と推論の重要な問題である。
いくつかのデータセット(HotpotQAなど)は、主に文レベルでモデルの推論能力をテストすることに焦点を当てている。
この課題を克服するために、多くの既存のフレームワークはディープラーニングモデルを使用して関連するパスを選択し、対応するパスの文をマッチングすることで各質問に答える。
しかし、そのようなフレームワークは長い推論時間を必要とし、文と文の関係をうまく利用できない。
本研究では,これらの問題に対して,文を共同でランク付けし,文を選択することで,シンプルかつ効果的に対処する枠組みを提案する。
本稿では,文のランク付けと文選択の相関と相互作用を促進するために,一貫性と類似性の制約を提案する。
実験では,HotpotQAデータセット上の関連文の正確な一致から,我々のフレームワークが競合的な結果を達成し,ベースラインを28倍に向上できることを実証した。
関連論文リスト
- QUDSELECT: Selective Decoding for Questions Under Discussion Parsing [90.92351108691014]
Question Under Examination (QUD) は、暗黙の質問を用いて文間の会話関係を明らかにするための談話フレームワークである。
本稿では,QUD基準を考慮したQUD依存構造を選択的に復号する共同学習フレームワークであるQUDSELECTを紹介する。
提案手法は,人的評価において9%,自動評価において4%,最先端のベースラインモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-08-02T06:46:08Z) - Learning to Select the Relevant History Turns in Conversational Question
Answering [27.049444003555234]
関連する履歴の選択と正しい回答予測の依存関係は興味深いが、探索されていない領域である。
本稿では,まず,すべての履歴ターンのコンテキストと質問エンティティを生成するフレームワークであるDHS-ConvQAを提案する。
関連ターンの選択は、元の質問を書き換えるよりも有効であることを示す。
論文 参考訳(メタデータ) (2023-08-04T12:59:39Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Effective FAQ Retrieval and Question Matching With Unsupervised
Knowledge Injection [10.82418428209551]
質問に対して適切な回答を得るための文脈言語モデルを提案する。
また、ドメイン固有の単語間のトポロジ関連関係を教師なしの方法で活用することについても検討する。
提案手法のバリエーションを,公開可能な中国語FAQデータセット上で評価し,さらに大規模質問マッチングタスクに適用し,コンテキスト化する。
論文 参考訳(メタデータ) (2020-10-27T05:03:34Z) - A Wrong Answer or a Wrong Question? An Intricate Relationship between
Question Reformulation and Answer Selection in Conversational Question
Answering [15.355557454305776]
会話の文脈における質問書き直し(QR)は、この現象により多くの光を放つことができることを示す。
TREC CAsT と QuAC (CANARD) のデータセットを用いて解析を行った。
論文 参考訳(メタデータ) (2020-10-13T06:29:51Z) - Context Modeling with Evidence Filter for Multiple Choice Question
Answering [18.154792554957595]
MCQA(Multi-Choice Question Answering)は、機械読解における課題である。
主な課題は、正しい答えをサポートする与えられたコンテキストから"エビデンス"を抽出することである。
既存の作業は、人間の努力に過度に依存するルールで注釈付きエビデンスや遠方の監督によってこの問題に取り組む。
本稿では,エンコードされた文脈間の関係をモデル化するためのエビデンスフィルタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-06T11:53:23Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z) - Context-based Transformer Models for Answer Sentence Selection [109.96739477808134]
本稿では,文選択作業における文脈情報の役割を分析する。
本稿では,ローカルとグローバルの2種類のコンテキストを活用するTransformerベースのアーキテクチャを提案する。
その結果,トランスフォーマーモデルにおける局所コンテキストとグローバルコンテキストの組み合わせは,解答文選択の精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-06-01T21:52:19Z) - Query Focused Multi-Document Summarization with Distant Supervision [88.39032981994535]
既存の作業は、クエリとテキストセグメント間の関連性を推定する検索スタイルの手法に大きく依存している。
本稿では,クエリに関連するセグメントを推定するための個別モジュールを導入した粗大なモデリングフレームワークを提案する。
我々のフレームワークは、標準QFSベンチマークにおいて、強力な比較システムよりも優れていることを実証する。
論文 参考訳(メタデータ) (2020-04-06T22:35:19Z) - Improving Multi-Turn Response Selection Models with Complementary
Last-Utterance Selection by Instance Weighting [84.9716460244444]
我々は、データリソース自体の根底にある相関を利用して、異なる種類の監視信号を導出することを検討する。
2つの公開データセットで広範な実験を行い、両方のデータセットで大幅に改善した。
論文 参考訳(メタデータ) (2020-02-18T06:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。