論文の概要: Utilizing Bidirectional Encoder Representations from Transformers for
Answer Selection
- arxiv url: http://arxiv.org/abs/2011.07208v1
- Date: Sat, 14 Nov 2020 03:15:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 13:46:24.540618
- Title: Utilizing Bidirectional Encoder Representations from Transformers for
Answer Selection
- Title(参考訳): 解答選択におけるトランスフォーマからの双方向エンコーダ表現の活用
- Authors: Md Tahmid Rahman Laskar, Enamul Hoque, Jimmy Xiangji Huang
- Abstract要約: 我々は、大規模なデータセットにおける言語モデリングタスクにトランスフォーマーベースのモデルを採用し、下流タスクに微調整する。
回答選択タスクに対するBERTモデルの微調整は非常に効果的であり、QAデータセットでは13.1%、CQAデータセットでは18.7%の最大改善が観察されている。
- 参考スコア(独自算出の注目度): 16.048329028104643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-training a transformer-based model for the language modeling task in a
large dataset and then fine-tuning it for downstream tasks has been found very
useful in recent years. One major advantage of such pre-trained language models
is that they can effectively absorb the context of each word in a sentence.
However, for tasks such as the answer selection task, the pre-trained language
models have not been extensively used yet. To investigate their effectiveness
in such tasks, in this paper, we adopt the pre-trained Bidirectional Encoder
Representations from Transformer (BERT) language model and fine-tune it on two
Question Answering (QA) datasets and three Community Question Answering (CQA)
datasets for the answer selection task. We find that fine-tuning the BERT model
for the answer selection task is very effective and observe a maximum
improvement of 13.1% in the QA datasets and 18.7% in the CQA datasets compared
to the previous state-of-the-art.
- Abstract(参考訳): 大規模なデータセットで言語モデリングタスク用にトランスフォーマティブベースのモデルを事前トレーニングした後、下流タスク用に微調整することが近年非常に有用であることが判明した。
このような事前訓練された言語モデルの大きな利点の1つは、文中の各単語の文脈を効果的に吸収できることである。
しかし、解答選択タスクのようなタスクでは、事前訓練された言語モデルはまだ広く使われていない。
このようなタスクにおけるそれらの効果を検討するため,本論文では,変換器(BERT)言語モデルから事前学習した双方向エンコーダ表現を採用し,質問応答(QA)データセットと3つのコミュニティ質問応答(CQA)データセットに微調整する。
回答選択タスクに対するBERTモデルの微調整は非常に効果的であり、QAデータセットでは13.1%、CQAデータセットでは18.7%の改善が見られた。
関連論文リスト
- Pre-training Transformer Models with Sentence-Level Objectives for
Answer Sentence Selection [99.59693674455582]
本稿では,文書内および文書間における段落レベルの意味論を取り入れた3つの新しい文レベルトランスフォーマー事前学習目標を提案する。
3つのパブリックなAS2データセットと1つの産業用AS2データセットに関する実験は、ベースラインモデルよりも事前訓練されたトランスフォーマーの実証的な優位性を実証している。
論文 参考訳(メタデータ) (2022-05-20T22:39:00Z) - Paragraph-based Transformer Pre-training for Multi-Sentence Inference [99.59693674455582]
マルチ候補推論タスクの微調整に使用する場合,一般的な事前学習型トランスフォーマーは性能が良くないことを示す。
次に、複数の入力文にまたがる段落レベルの意味をモデル化する新しい事前学習目標を提案する。
論文 参考訳(メタデータ) (2022-05-02T21:41:14Z) - Parameter-Efficient Abstractive Question Answering over Tables or Text [60.86457030988444]
QAシステムを求める情報の長期的な野望は、マルチモーダルなコンテキストを推論し、ユーザクエリに対する自然な回答を生成することである。
メモリ集約型事前学習言語モデルは、構造化されていないテキストや構造化テーブルのような特定のモードでQAデータ上のモデルを微調整することで、QAのような下流タスクに適応する。
パラメータ効率の良いアダプタは、トランス層間の小さなタスク固有のボトルネック層を加算し、訓練する。
論文 参考訳(メタデータ) (2022-04-07T10:56:29Z) - A Comparative Study of Transformer-Based Language Models on Extractive
Question Answering [0.5079811885340514]
事前訓練された言語モデルをトレーニングし、複数の質問応答データセットでそれらを微調整する。
F1スコアを基準として、RoBERTaとBARTが事前トレーニングされたモデルは、すべてのデータセットで最高のパフォーマンスを発揮します。
論文 参考訳(メタデータ) (2021-10-07T02:23:19Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z) - VANiLLa : Verbalized Answers in Natural Language at Large Scale [2.9098477555578333]
このデータセットは、CSQAとSimpleQuestionsWikidataデータセットから適応された100万以上の単純な質問で構成されている。
このデータセットの回答文は、三つの事実よりも構文的に、意味的に質問に近い。
論文 参考訳(メタデータ) (2021-05-24T16:57:54Z) - Multilingual Answer Sentence Reranking via Automatically Translated Data [97.98885151955467]
本稿では,現代の質問応答システム(QA)のコアコンポーネントである,多言語回答文選択(AS2)モデルの設計について述べる。
主なアイデアは、あるリソースリッチ言語(英語など)から、他の言語へのデータ転送であり、リソースの観点からはよりリッチである。
論文 参考訳(メタデータ) (2021-02-20T03:52:08Z) - Simplifying Paragraph-level Question Generation via Transformer Language
Models [0.0]
質問生成(QG)は、ある入力テキストに対応する質問をモデルに訓練する自然言語生成タスクである。
1つのTransformerベースの一方向言語モデルで、トランスファーラーニングを利用して高品質な質問を生成することができる。
我々のQGモデルは、GPT-2 Smallから微調整され、SQuADデータセット上のいくつかの段落レベルのQGベースラインを0.95 METEORポイントで上回る。
論文 参考訳(メタデータ) (2020-05-03T14:57:24Z) - Improving Multi-Turn Response Selection Models with Complementary
Last-Utterance Selection by Instance Weighting [84.9716460244444]
我々は、データリソース自体の根底にある相関を利用して、異なる種類の監視信号を導出することを検討する。
2つの公開データセットで広範な実験を行い、両方のデータセットで大幅に改善した。
論文 参考訳(メタデータ) (2020-02-18T06:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。