論文の概要: A Study on Efficiency, Accuracy and Document Structure for Answer
Sentence Selection
- arxiv url: http://arxiv.org/abs/2003.02349v1
- Date: Wed, 4 Mar 2020 22:12:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:08:28.373629
- Title: A Study on Efficiency, Accuracy and Document Structure for Answer
Sentence Selection
- Title(参考訳): 回答文選択の効率性, 正確性, 文書構造に関する研究
- Authors: Daniele Bonadiman and Alessandro Moschitti
- Abstract要約: 本稿では,単語関連エンコーダとともに,原語階の内在的構造を活用すれば,競争的な結果が得られることを論じる。
私たちのモデルはWikiQAデータセットでトレーニングするのに9.5秒かかります。
- 参考スコア(独自算出の注目度): 112.0514737686492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An essential task of most Question Answering (QA) systems is to re-rank the
set of answer candidates, i.e., Answer Sentence Selection (A2S). These
candidates are typically sentences either extracted from one or more documents
preserving their natural order or retrieved by a search engine. Most
state-of-the-art approaches to the task use huge neural models, such as BERT,
or complex attentive architectures. In this paper, we argue that by exploiting
the intrinsic structure of the original rank together with an effective
word-relatedness encoder, we can achieve competitive results with respect to
the state of the art while retaining high efficiency. Our model takes 9.5
seconds to train on the WikiQA dataset, i.e., very fast in comparison with the
$\sim 18$ minutes required by a standard BERT-base fine-tuning.
- Abstract(参考訳): 質問回答システム(QA)の基本課題は、回答候補の集合、すなわち回答文選択(A2S)を再ランクすることである。
これらの候補は、典型的には1つ以上の文書から自然順序を保つか、検索エンジンによって検索される文である。
タスクに対する最先端のアプローチの多くは、bertや複雑な注意型アーキテクチャといった巨大なニューラルネットワークを使用する。
本稿では,単語関連エンコーダとともに本来のランクの内在的構造を活用すれば,高い効率を維持しつつ,技術状況に関する競争的な結果を得ることができることを論じる。
我々のモデルは、wikiqaデータセットでトレーニングするのに9.5秒かかります。つまり、標準のbertベースの微調整に必要な$\sim 18$ minutesと比べて非常に高速です。
関連論文リスト
- Automated Evaluation of Retrieval-Augmented Language Models with Task-Specific Exam Generation [9.390902237835457]
検索型大規模言語モデル(RAG)のタスク固有精度を計測する新しい手法を提案する。
複数の選択質問からなる自動生成合成試験において、RAGをスコアリングして評価を行う。
論文 参考訳(メタデータ) (2024-05-22T13:14:11Z) - MinPrompt: Graph-based Minimal Prompt Data Augmentation for Few-shot Question Answering [64.6741991162092]
オープンドメイン質問応答のための最小限のデータ拡張フレームワークMinPromptを提案する。
我々は、生テキストをグラフ構造に変換し、異なる事実文間の接続を構築する。
次に、グラフアルゴリズムを適用して、原文のほとんどの情報をカバーするのに必要な最小限の文の集合を識別する。
同定された文サブセットに基づいてQAペアを生成し、選択した文に基づいてモデルをトレーニングし、最終モデルを得る。
論文 参考訳(メタデータ) (2023-10-08T04:44:36Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Comparative Study of Long Document Classification [0.0]
我々は、標準的な機械学習アプローチを用いて、長い文書分類を再考する。
単純なNaive Bayesから6つの標準テキスト分類データセット上の複雑なBERTまで、さまざまなアプローチをベンチマークする。
論文 参考訳(メタデータ) (2021-11-01T04:51:51Z) - Modeling Context in Answer Sentence Selection Systems on a Latency
Budget [87.45819843513598]
本稿では,AS2モデルに文脈情報を効率的に組み込む手法を提案する。
各回答候補について、まず教師なし類似性手法を用いて、その原文から関連文を抽出する。
マルチウェイアテンションアーキテクチャを活用してコンテキストを効率的にエンコードする私たちのベストなアプローチは、AS2の非問合せ状態よりも6%から11%改善し、システムレイテンシに最小限の影響を与えます。
論文 参考訳(メタデータ) (2021-01-28T16:24:48Z) - Answering Complex Open-Domain Questions with Multi-Hop Dense Retrieval [117.07047313964773]
複雑なオープンドメインの質問に答えるために, 単純で効率的なマルチホップ高密度検索手法を提案する。
本手法では,文書間ハイパーリンクやアノテートされたエンティティマーカーなど,コーパス固有の情報へのアクセスは不要である。
提案システムでは,HotpotQA上でのベストパブリッシュ精度と,推論時の10倍の速度で,より優れた効率・精度のトレードオフも実現している。
論文 参考訳(メタデータ) (2020-09-27T06:12:29Z) - FAT ALBERT: Finding Answers in Large Texts using Semantic Similarity
Attention Layer based on BERT [0.5772546394254112]
本研究では,最先端の変圧器ネットワークであるBERTをベースとしたモデルを構築した。
私たちは、テスト精度87.79%のリーダーボードで第1位にランクされています。
論文 参考訳(メタデータ) (2020-08-22T08:04:21Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - ColBERT: Efficient and Effective Passage Search via Contextualized Late
Interaction over BERT [24.288824715337483]
ColBERTは、ディープLMを効率的な検索に適応させる新しいランキングモデルである。
我々は最近の2つの経路探索データセットを用いてColBERTを広範囲に評価した。
論文 参考訳(メタデータ) (2020-04-27T14:21:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。