論文の概要: A Simple Yet Strong Pipeline for HotpotQA
- arxiv url: http://arxiv.org/abs/2004.06753v1
- Date: Tue, 14 Apr 2020 18:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 09:41:02.439707
- Title: A Simple Yet Strong Pipeline for HotpotQA
- Title(参考訳): HotpotQAのためのシンプルで強力なパイプライン
- Authors: Dirk Groeneveld, Tushar Khot, Mausam, and Ashish Sabharwal
- Abstract要約: BERTをベースとした単純なパイプラインであるQuarkでさえ、驚くほどうまく動作しています。
具体的には、HotpotQAでは、Quarkは質問応答とサポート識別の両方でこれらのモデルを上回っている。
Quarkの強力な性能は、複雑な技術の価値を正当化するために人気のあるベンチマークを使う前に、単純なモデル設計を慎重に調査することの重要性を再浮上させる。
- 参考スコア(独自算出の注目度): 42.38530539516589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art models for multi-hop question answering typically augment
large-scale language models like BERT with additional, intuitively useful
capabilities such as named entity recognition, graph-based reasoning, and
question decomposition. However, does their strong performance on popular
multi-hop datasets really justify this added design complexity? Our results
suggest that the answer may be no, because even our simple pipeline based on
BERT, named Quark, performs surprisingly well. Specifically, on HotpotQA, Quark
outperforms these models on both question answering and support identification
(and achieves performance very close to a RoBERTa model). Our pipeline has
three steps: 1) use BERT to identify potentially relevant sentences
independently of each other; 2) feed the set of selected sentences as context
into a standard BERT span prediction model to choose an answer; and 3) use the
sentence selection model, now with the chosen answer, to produce supporting
sentences. The strong performance of Quark resurfaces the importance of
carefully exploring simple model designs before using popular benchmarks to
justify the value of complex techniques.
- Abstract(参考訳): マルチホップ質問応答のための最先端モデルは通常、BERTのような大規模言語モデルを拡張し、名前付きエンティティ認識、グラフベースの推論、質問分解といった直感的に有用な機能を追加する。
しかし、人気のあるマルチホップデータセットのパフォーマンスは、この追加設計の複雑さを本当に正当化するだろうか?
BERTをベースとした単純なパイプラインであるQuarkでさえ、驚くほどうまく機能しているからです。
特にhotpotqaでは、quarkは質問応答とサポート識別の両方でこれらのモデルよりも優れています(robertaモデルに非常に近いパフォーマンスを実現しています)。
パイプラインには3つのステップがあります
1) BERTを使用して,相互に関連のある文を識別する。
2)選択した文の集合をコンテキストとして標準のBERTスパン予測モデルに入力して回答を選択する。
3) 選択された回答を伴う文選択モデルを使用して,支援文を生成する。
クォークの強力な性能は、複雑なテクニックの価値を正当化するために人気のあるベンチマークを使用する前に、単純なモデル設計を慎重に検討することの重要性を再顕現する。
関連論文リスト
- SynTQA: Synergistic Table-based Question Answering via Mixture of Text-to-SQL and E2E TQA [25.09488366689108]
テキスト・ツー・パースとエンドツーエンド質問応答(E2E TQA)は、表に基づく質問回答タスクの2つの主要なアプローチである。
複数のベンチマークで成功したが、まだ比較されておらず、相乗効果は未解明のままである。
ベンチマークデータセットの最先端モデルを評価することによって、さまざまな長所と短所を識別する。
論文 参考訳(メタデータ) (2024-09-25T07:18:45Z) - Answer, Assemble, Ace: Understanding How Transformers Answer Multiple Choice Questions [103.20281438405111]
MCQA(Multiple-choice Question answering)は、高性能トランスフォーマー言語モデルのキーコンピテンスである。
我々は,関連する情報を符号化するキー隠蔽状態をローカライズするために,語彙投影とアクティベーションパッチ手法を用いる。
特定の回答記号の予測は、一つの中間層、特にその多頭部自己認識機構に因果関係があることが示される。
論文 参考訳(メタデータ) (2024-07-21T00:10:23Z) - Breaking the Token Barrier: Chunking and Convolution for Efficient Long
Text Classification with BERT [0.0]
変換器ベースのモデル、特にBERTは様々なNLPタスクの研究を推進している。
BERTモデルは512トークンの最大トークン制限に制限されているため、長い入力で実際に適用するのは簡単ではない。
本稿では,任意の事前学習したモデルを任意に長文で推論できるような,比較的単純なBanilla BERTアーキテクチャであるChunkBERTを提案する。
論文 参考訳(メタデータ) (2023-10-31T15:41:08Z) - Enhancing Self-Consistency and Performance of Pre-Trained Language
Models through Natural Language Inference [72.61732440246954]
大規模な事前訓練された言語モデルは、テスト入力間の論理的一貫性を欠いていることが多い。
本研究では,事前学習したNLPモデルの一貫性と精度を高めるためのフレームワークであるConCoRDを提案する。
ConCoRDは、市販のクローズドブックQAおよびVQAモデルの精度と一貫性を一貫して向上することを示す。
論文 参考訳(メタデータ) (2022-11-21T21:58:30Z) - ListReader: Extracting List-form Answers for Opinion Questions [18.50111430378249]
ListReaderは、リスト形式の回答のためのニューラルネットワーク抽出QAモデルである。
質問と内容のアライメントの学習に加えて,異種グラフニューラルネットワークを導入する。
提案モデルでは,スパンレベルと文レベルのいずれの回答も抽出可能な抽出設定を採用する。
論文 参考訳(メタデータ) (2021-10-22T10:33:08Z) - EfficientQA : a RoBERTa Based Phrase-Indexed Question-Answering System [0.0]
本稿では,言語モデルの自然言語理解を,質問や回答候補を表す密接なベクトルに移す可能性について検討する。
提案モデルでは,Phrase-Indexed Question Answering (PIQA) における最先端結果が,精度1.3ポイント,f1スコア1.4ポイントで達成されている。
論文 参考訳(メタデータ) (2021-01-06T17:46:05Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - FAT ALBERT: Finding Answers in Large Texts using Semantic Similarity
Attention Layer based on BERT [0.5772546394254112]
本研究では,最先端の変圧器ネットワークであるBERTをベースとしたモデルを構築した。
私たちは、テスト精度87.79%のリーダーボードで第1位にランクされています。
論文 参考訳(メタデータ) (2020-08-22T08:04:21Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z) - AMR Parsing via Graph-Sequence Iterative Inference [62.85003739964878]
本稿では,AMR解析を入力シーケンスとインクリメンタルに構築されたグラフ上での2つの決定の連続として扱うエンド・ツー・エンドのモデルを提案する。
これら2つの質問に対する回答は相互因果関係であることを示す。
我々は、両方の視点でより良い回答を得るのに役立つ反復推論に基づくモデルを設計し、解析精度を大幅に改善する。
論文 参考訳(メタデータ) (2020-04-12T09:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。