論文の概要: A BERT-based Distractor Generation Scheme with Multi-tasking and
Negative Answer Training Strategies
- arxiv url: http://arxiv.org/abs/2010.05384v1
- Date: Mon, 12 Oct 2020 01:22:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 05:38:55.737262
- Title: A BERT-based Distractor Generation Scheme with Multi-tasking and
Negative Answer Training Strategies
- Title(参考訳): マルチタスクと負答訓練戦略を用いたbertに基づく気晴らし生成法
- Authors: Ho-Lam Chung, Ying-Hong Chan, Yao-Chung Fan
- Abstract要約: 本稿では,マルチタスクと負の回答学習を併用して,テキスト・マルチプル・イントラクタを効果的に生成する新しいイントラクタ生成手法を提案する。
実験結果から,本モデルでは28.65から39.81(BLEU 1スコア)まで最先端の結果が得られた。
- 参考スコア(独自算出の注目度): 1.611401281366893
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this paper, we investigate the following two limitations for the existing
distractor generation (DG) methods. First, the quality of the existing DG
methods are still far from practical use. There is still room for DG quality
improvement. Second, the existing DG designs are mainly for single distractor
generation. However, for practical MCQ preparation, multiple distractors are
desired. Aiming at these goals, in this paper, we present a new distractor
generation scheme with multi-tasking and negative answer training strategies
for effectively generating \textit{multiple} distractors. The experimental
results show that (1) our model advances the state-of-the-art result from 28.65
to 39.81 (BLEU 1 score) and (2) the generated multiple distractors are diverse
and show strong distracting power for multiple choice question.
- Abstract(参考訳): 本稿では,既存のトラクタ生成法(DG)の2つの限界について検討する。
第一に、既存のDG手法の品質はまだ実用には程遠い。
DGの品質改善の余地はまだあります。
第二に、既存のDG設計は主に単一イントラクタ生成のためのものである。
しかし、実用的なMCQの準備には、複数の気晴らし器が望まれる。
そこで本稿では,これらの目標を念頭に置いて,マルチタスクと負の回答のトレーニング戦略を用いた,<textit{multiple} distractor を効果的に生成するための新しい気晴らし生成方式を提案する。
実験結果から,(1)本モデルが28.65点から39.81点(BLEU 1点)まで進行し,(2)生成した複数の分散器は多種多様であり,複数の選択問題に対して強い注意力を示すことがわかった。
関連論文リスト
- Unsupervised Distractor Generation via Large Language Model Distilling and Counterfactual Contrastive Decoding [13.348768763717027]
Distractor Generation (DG) は、読者を混乱させるいくつかの誤ったオプションを生成することを目的としている。
従来のDGの監督手法は、高価な人間の注釈付きイントラクタラベルに大きく依存している。
本稿では,大規模言語モデル(LLM)を費用対効果アノテータとして活用する,教師なしのDGフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-03T13:20:05Z) - DGRC: An Effective Fine-tuning Framework for Distractor Generation in Chinese Multi-choice Reading Comprehension [0.6597195879147557]
本報告では,中国におけるNQDGのためのDGRCという微調整フレームワークについて紹介する。
実験の結果,DGRCは生成性能を著しく向上し,BLEUスコアの2.5倍以上の改善が得られた。
論文 参考訳(メタデータ) (2024-05-29T14:47:01Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Lookback for Learning to Branch [77.32867454769936]
Bipartite Graph Neural Networks (GNN) は、ディープラーニングに基づくMixed-Integer Linear Program (MILP) の重要コンポーネントであることが示されている。
近年の研究では、分岐とバウンド(B&B)の解法における分岐(可変選択)を置き換える上で、そのようなGNNの有効性が実証されている。
論文 参考訳(メタデータ) (2022-06-30T02:33:32Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Conflict-Averse Gradient Descent for Multi-task Learning [56.379937772617]
マルチタスクモデルを最適化する際の大きな課題は、矛盾する勾配である。
本稿では、平均損失関数を最小化する衝突-逆勾配降下(CAGrad)を導入する。
CAGradは目標を自動的にバランスし、平均損失よりも最小限に確実に収束する。
論文 参考訳(メタデータ) (2021-10-26T22:03:51Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - Training ELECTRA Augmented with Multi-word Selection [53.77046731238381]
本稿では,マルチタスク学習に基づくELECTRAの改良を目的としたテキストエンコーダ事前学習手法を提案する。
具体的には、識別器を訓練し、置換トークンを同時に検出し、候補集合から元のトークンを選択する。
論文 参考訳(メタデータ) (2021-05-31T23:19:00Z) - ErGAN: Generative Adversarial Networks for Entity Resolution [8.576633582363202]
学習ベースのエンティティ解決の大きな課題は、トレーニングのラベルコストを削減する方法です。
そこで本研究では,erganと呼ばれる新しい深層学習手法を提案する。
ErGANのラベリングと学習効率を実証的に検証するための広範な実験を実施しました。
論文 参考訳(メタデータ) (2020-12-18T01:33:58Z) - Automatic Distractor Generation for Multiple Choice Questions in
Standard Tests [37.401591976447044]
本稿では,イントラクタ生成を自動化するための,イントラクタ生成フレームワークを提案する。
我々のモデルは既存のモデルを大きく上回り、新しい最先端を実現する。
論文 参考訳(メタデータ) (2020-11-26T02:58:24Z) - Better Distractions: Transformer-based Distractor Generation and
Multiple Choice Question Filtering [4.168157981135697]
我々はGPT-2言語モデルをトレーニングし、与えられた質問とテキストコンテキストに対して3つの気晴らしを生成する。
次に、複数の選択質問(MCQ)に答えるためにBERT言語モデルをトレーニングし、このモデルをフィルタとして使用する。
論文 参考訳(メタデータ) (2020-10-19T15:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。