論文の概要: Automatic Distractor Generation for Multiple Choice Questions in
Standard Tests
- arxiv url: http://arxiv.org/abs/2011.13100v1
- Date: Thu, 26 Nov 2020 02:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 08:47:51.696272
- Title: Automatic Distractor Generation for Multiple Choice Questions in
Standard Tests
- Title(参考訳): 標準テストにおける複数選択質問の自動発散子生成
- Authors: Zhaopeng Qiu, Xian Wu, Wei Fan
- Abstract要約: 本稿では,イントラクタ生成を自動化するための,イントラクタ生成フレームワークを提案する。
我々のモデルは既存のモデルを大きく上回り、新しい最先端を実現する。
- 参考スコア(独自算出の注目度): 37.401591976447044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To assess the knowledge proficiency of a learner, multiple choice question is
an efficient and widespread form in standard tests. However, the composition of
the multiple choice question, especially the construction of distractors is
quite challenging. The distractors are required to both incorrect and plausible
enough to confuse the learners who did not master the knowledge. Currently, the
distractors are generated by domain experts which are both expensive and
time-consuming. This urges the emergence of automatic distractor generation,
which can benefit various standard tests in a wide range of domains. In this
paper, we propose a question and answer guided distractor generation (EDGE)
framework to automate distractor generation. EDGE consists of three major
modules: (1) the Reforming Question Module and the Reforming Passage Module
apply gate layers to guarantee the inherent incorrectness of the generated
distractors; (2) the Distractor Generator Module applies attention mechanism to
control the level of plausibility. Experimental results on a large-scale public
dataset demonstrate that our model significantly outperforms existing models
and achieves a new state-of-the-art.
- Abstract(参考訳): 学習者の知識能力を評価するために, 複数選択質問は, 標準テストにおいて, 効率的かつ広範な形式である。
しかし,複数選択問題の構成,特に散逸器の構成は非常に困難である。
気晴らしは、知識を習得していない学習者を混乱させるのに十分な正確さと誤りの両方に要求される。
現在、気晴らしは、費用も時間もかかるドメインの専門家によって生成される。
このことは、様々な領域で様々な標準テストの恩恵を受けることができる自動イントラクタ生成の出現を促す。
本稿では,障害発生の自動化を目的とした質問・回答誘導型障害生成(edge)フレームワークを提案する。
EDGE は,(1) 改革質問モジュール,(2) 改革パスモジュールの3つの主要なモジュールから構成される。(1) 改革質問モジュールと改革パスモジュールは,生成した障害の固有の不正性を保証するためにゲート層を適用し,(2) ディトラクタジェネレータモジュールは,妥当性のレベルを制御するために注意機構を適用している。
大規模パブリックデータセットでの実験的結果は、我々のモデルが既存のモデルを大幅に上回っており、新しい最先端を達成していることを示している。
関連論文リスト
- Multimodal Reranking for Knowledge-Intensive Visual Question Answering [77.24401833951096]
回答生成のための知識候補のランク付け品質を向上させるためのマルチモーダル・リランカを提案する。
OK-VQAとA-OKVQAの実験は、遠隔監視からのマルチモーダルリランカーが一貫した改善をもたらすことを示している。
論文 参考訳(メタデータ) (2024-07-17T02:58:52Z) - DGRC: An Effective Fine-tuning Framework for Distractor Generation in Chinese Multi-choice Reading Comprehension [0.6597195879147557]
本報告では,中国におけるNQDGのためのDGRCという微調整フレームワークについて紹介する。
実験の結果,DGRCは生成性能を著しく向上し,BLEUスコアの2.5倍以上の改善が得られた。
論文 参考訳(メタデータ) (2024-05-29T14:47:01Z) - Generative Multi-modal Models are Good Class-Incremental Learners [51.5648732517187]
クラス増分学習のための新しい生成型マルチモーダルモデル(GMM)フレームワークを提案する。
提案手法は適応生成モデルを用いて画像のラベルを直接生成する。
Few-shot CIL設定では、現在の最先端のすべてのメソッドに対して少なくとも14%精度が向上し、忘れてはならない。
論文 参考訳(メタデータ) (2024-03-27T09:21:07Z) - Multilinear Mixture of Experts: Scalable Expert Specialization through Factorization [51.98792406392873]
Mixture of Experts (MoE) パラダイムは、密度の高い層をより小さくモジュール化された計算に分解する強力な方法を提供する。
大きな課題は、きめ細かい特殊化を達成するのに十分な専門家の数をスケーリングする計算コストである。
視覚モデルに焦点をあて、この問題に対処するため、Multilinear Mixture of Experts(mu$MoE)層を提案する。
論文 参考訳(メタデータ) (2024-02-19T21:20:22Z) - ReST meets ReAct: Self-Improvement for Multi-Step Reasoning LLM Agent [50.508669199496474]
外部知識に基づいて推論と行動を行うReAct-style LLMエージェントを開発した。
エージェントをReSTライクな手法で改良し,従来の軌道上で反復的に訓練する。
引き起こされた大きなモデルから始まり、アルゴリズムのたった2イテレーションの後に、微調整された小さなモデルを生成することができる。
論文 参考訳(メタデータ) (2023-12-15T18:20:15Z) - Modular Deep Learning [120.36599591042908]
トランスファーラーニングは近年、機械学習の主要なパラダイムとなっている。
負の干渉を伴わずに複数のタスクを専門とするモデルを開発する方法はまだ不明である。
これらの課題に対する有望な解決策として、モジュール型ディープラーニングが登場した。
論文 参考訳(メタデータ) (2023-02-22T18:11:25Z) - Learning to Reuse Distractors to support Multiple Choice Question
Generation in Education [19.408786425460498]
本稿では,教師が複数選択質問(MCQ)の作成を支援するために,手作業による回答と注意散らしの集合をいかに活用するかを検討する。
データ駆動モデルをいくつか構築し,静的な特徴ベースモデルと比較した。
自動評価と人的評価は、コンテキスト認識モデルが静的な特徴ベースのアプローチを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-25T12:48:56Z) - Mixture of Experts for Biomedical Question Answering [34.92691831878302]
そこで我々はMOEBQAと呼ばれるMixture-of-Expert (MoE)ベースの質問応答手法を提案する。
MoEBQAはスパースルーティングによって異なるタイプの質問の計算を分離する。
実検に基づいて構築した3つのバイオメディカル質問応答(BQA)データセットのMOEBQAを評価する。
論文 参考訳(メタデータ) (2022-04-15T14:11:40Z) - Better Distractions: Transformer-based Distractor Generation and
Multiple Choice Question Filtering [4.168157981135697]
我々はGPT-2言語モデルをトレーニングし、与えられた質問とテキストコンテキストに対して3つの気晴らしを生成する。
次に、複数の選択質問(MCQ)に答えるためにBERT言語モデルをトレーニングし、このモデルをフィルタとして使用する。
論文 参考訳(メタデータ) (2020-10-19T15:23:24Z) - A BERT-based Distractor Generation Scheme with Multi-tasking and
Negative Answer Training Strategies [1.611401281366893]
本稿では,マルチタスクと負の回答学習を併用して,テキスト・マルチプル・イントラクタを効果的に生成する新しいイントラクタ生成手法を提案する。
実験結果から,本モデルでは28.65から39.81(BLEU 1スコア)まで最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-10-12T01:22:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。