論文の概要: Automatic Distractor Generation for Multiple Choice Questions in
Standard Tests
- arxiv url: http://arxiv.org/abs/2011.13100v1
- Date: Thu, 26 Nov 2020 02:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 08:47:51.696272
- Title: Automatic Distractor Generation for Multiple Choice Questions in
Standard Tests
- Title(参考訳): 標準テストにおける複数選択質問の自動発散子生成
- Authors: Zhaopeng Qiu, Xian Wu, Wei Fan
- Abstract要約: 本稿では,イントラクタ生成を自動化するための,イントラクタ生成フレームワークを提案する。
我々のモデルは既存のモデルを大きく上回り、新しい最先端を実現する。
- 参考スコア(独自算出の注目度): 37.401591976447044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To assess the knowledge proficiency of a learner, multiple choice question is
an efficient and widespread form in standard tests. However, the composition of
the multiple choice question, especially the construction of distractors is
quite challenging. The distractors are required to both incorrect and plausible
enough to confuse the learners who did not master the knowledge. Currently, the
distractors are generated by domain experts which are both expensive and
time-consuming. This urges the emergence of automatic distractor generation,
which can benefit various standard tests in a wide range of domains. In this
paper, we propose a question and answer guided distractor generation (EDGE)
framework to automate distractor generation. EDGE consists of three major
modules: (1) the Reforming Question Module and the Reforming Passage Module
apply gate layers to guarantee the inherent incorrectness of the generated
distractors; (2) the Distractor Generator Module applies attention mechanism to
control the level of plausibility. Experimental results on a large-scale public
dataset demonstrate that our model significantly outperforms existing models
and achieves a new state-of-the-art.
- Abstract(参考訳): 学習者の知識能力を評価するために, 複数選択質問は, 標準テストにおいて, 効率的かつ広範な形式である。
しかし,複数選択問題の構成,特に散逸器の構成は非常に困難である。
気晴らしは、知識を習得していない学習者を混乱させるのに十分な正確さと誤りの両方に要求される。
現在、気晴らしは、費用も時間もかかるドメインの専門家によって生成される。
このことは、様々な領域で様々な標準テストの恩恵を受けることができる自動イントラクタ生成の出現を促す。
本稿では,障害発生の自動化を目的とした質問・回答誘導型障害生成(edge)フレームワークを提案する。
EDGE は,(1) 改革質問モジュール,(2) 改革パスモジュールの3つの主要なモジュールから構成される。(1) 改革質問モジュールと改革パスモジュールは,生成した障害の固有の不正性を保証するためにゲート層を適用し,(2) ディトラクタジェネレータモジュールは,妥当性のレベルを制御するために注意機構を適用している。
大規模パブリックデータセットでの実験的結果は、我々のモデルが既存のモデルを大幅に上回っており、新しい最先端を達成していることを示している。
関連論文リスト
- Multilinear Mixture of Experts: Scalable Expert Specialization through
Factorization [54.227054670896884]
大きな問題は、十分にきめ細かい特殊化を達成するために専門家の数をスケーリングする計算コストである。
本稿では,MMOE(Multilinear Mixutre of Experts)層を提案する。
視覚タスクの微調整基礎モデルにおけるMMoE層のスケーリングは,クラスレベルでより専門的な専門家に導かれるという,定性的かつ定量的な証拠を提示する。
論文 参考訳(メタデータ) (2024-02-19T21:20:22Z) - ReST meets ReAct: Self-Improvement for Multi-Step Reasoning LLM Agent [50.508669199496474]
外部知識に基づいて推論と行動を行うReAct-style LLMエージェントを開発した。
エージェントをReSTライクな手法で改良し,従来の軌道上で反復的に訓練する。
引き起こされた大きなモデルから始まり、アルゴリズムのたった2イテレーションの後に、微調整された小さなモデルを生成することができる。
論文 参考訳(メタデータ) (2023-12-15T18:20:15Z) - R-Tuning: Teaching Large Language Models to Refuse Unknown Questions [68.60002086172133]
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
このアプローチは、まずパラメトリック知識と命令チューニングデータの間の知識ギャップを識別することによって定式化される。
実験により、この新しい命令チューニングアプローチは、既知の質問に答えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - Modular Deep Learning [120.36599591042908]
トランスファーラーニングは近年、機械学習の主要なパラダイムとなっている。
負の干渉を伴わずに複数のタスクを専門とするモデルを開発する方法はまだ不明である。
これらの課題に対する有望な解決策として、モジュール型ディープラーニングが登場した。
論文 参考訳(メタデータ) (2023-02-22T18:11:25Z) - Learning to Reuse Distractors to support Multiple Choice Question
Generation in Education [19.408786425460498]
本稿では,教師が複数選択質問(MCQ)の作成を支援するために,手作業による回答と注意散らしの集合をいかに活用するかを検討する。
データ駆動モデルをいくつか構築し,静的な特徴ベースモデルと比較した。
自動評価と人的評価は、コンテキスト認識モデルが静的な特徴ベースのアプローチを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-25T12:48:56Z) - Mixture of Experts for Biomedical Question Answering [34.92691831878302]
そこで我々はMOEBQAと呼ばれるMixture-of-Expert (MoE)ベースの質問応答手法を提案する。
MoEBQAはスパースルーティングによって異なるタイプの質問の計算を分離する。
実検に基づいて構築した3つのバイオメディカル質問応答(BQA)データセットのMOEBQAを評価する。
論文 参考訳(メタデータ) (2022-04-15T14:11:40Z) - Better Distractions: Transformer-based Distractor Generation and
Multiple Choice Question Filtering [4.168157981135697]
我々はGPT-2言語モデルをトレーニングし、与えられた質問とテキストコンテキストに対して3つの気晴らしを生成する。
次に、複数の選択質問(MCQ)に答えるためにBERT言語モデルをトレーニングし、このモデルをフィルタとして使用する。
論文 参考訳(メタデータ) (2020-10-19T15:23:24Z) - A BERT-based Distractor Generation Scheme with Multi-tasking and
Negative Answer Training Strategies [1.611401281366893]
本稿では,マルチタスクと負の回答学習を併用して,テキスト・マルチプル・イントラクタを効果的に生成する新しいイントラクタ生成手法を提案する。
実験結果から,本モデルでは28.65から39.81(BLEU 1スコア)まで最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-10-12T01:22:29Z) - Unification of HDP and LDA Models for Optimal Topic Clustering of
Subject Specific Question Banks [55.41644538483948]
オンラインコースの人気が高まると、学者向けのコース関連クエリの数が増加することになる。
個々の質問に答えるのに費やす時間を短縮するために、それらをクラスタリングするのは理想的な選択です。
階層ディリクレプロセスを用いて、LDAモデルの実行に対して最適なトピック番号を入力します。
論文 参考訳(メタデータ) (2020-10-04T18:21:20Z) - What Does My QA Model Know? Devising Controlled Probes using Expert
Knowledge [36.13528043657398]
我々は,現在最先端のQAモデルが,単語定義や一般的な分類学的推論に関する一般的な知識を持っているかどうかを検討する。
さまざまなタイプの専門家の知識からデータセットを自動的に構築するための方法論を使用します。
評価の結果,変圧器を用いたQAモデルはすでにある種の構造的語彙的知識を認識できないことが確認された。
論文 参考訳(メタデータ) (2019-12-31T15:05:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。