論文の概要: Results and Insights from Diagnostic Questions: The NeurIPS 2020
Education Challenge
- arxiv url: http://arxiv.org/abs/2104.04034v1
- Date: Thu, 8 Apr 2021 20:09:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 11:56:41.049726
- Title: Results and Insights from Diagnostic Questions: The NeurIPS 2020
Education Challenge
- Title(参考訳): 診断質問の結果と展望:NeurIPS 2020教育課題
- Authors: Zichao Wang, Angus Lamb, Evgeny Saveliev, Pashmina Cameron, Yordan
Zaykov, Jose Miguel Hernandez-Lobato, Richard E. Turner, Richard G. Baraniuk,
Craig Barton, Simon Peyton Jones, Simon Woodhead, Cheng Zhang
- Abstract要約: このコンペティションは、教育学的に効果的で多目的質問(MCQ)である教育診断に関するものである。
大規模な学習シナリオにおいて、自動パーソナライズされた学習を促進するために、MCQに対する数億の回答に関するデータをどのように使用できるのか?
約400チームが約4000の応募を提出したNeurIPSコンペティションについて報告します。
- 参考スコア(独自算出の注目度): 40.96530220202453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This competition concerns educational diagnostic questions, which are
pedagogically effective, multiple-choice questions (MCQs) whose distractors
embody misconceptions. With a large and ever-increasing number of such
questions, it becomes overwhelming for teachers to know which questions are the
best ones to use for their students. We thus seek to answer the following
question: how can we use data on hundreds of millions of answers to MCQs to
drive automatic personalized learning in large-scale learning scenarios where
manual personalization is infeasible? Success in using MCQ data at scale helps
build more intelligent, personalized learning platforms that ultimately improve
the quality of education en masse. To this end, we introduce a new,
large-scale, real-world dataset and formulate 4 data mining tasks on MCQs that
mimic real learning scenarios and target various aspects of the above question
in a competition setting at NeurIPS 2020. We report on our NeurIPS competition
in which nearly 400 teams submitted approximately 4000 submissions, with
encouragingly diverse and effective approaches to each of our tasks.
- Abstract(参考訳): このコンペティションは、教育的に効果的なマルチチョイス質問(mcqs)の教育的診断問題に関するものである。
このような質問がどんどん増えていく中で、教師はどの質問が生徒にとって最適な質問であるかを知ることが圧倒的に多い。
手動のパーソナライゼーションが不可能な大規模学習シナリオにおいて,自動パーソナライズ学習を推進するために,MCQに対する数十億の回答に関するデータをどのように活用すればよいのか?
大規模なMCQデータの利用の成功は、よりインテリジェントでパーソナライズされた学習プラットフォームの構築に役立つ。
そこで本研究では,本研究では,mqs上での新たな大規模実世界データセットと4つのデータマイニングタスクを導入し,実際の学習シナリオを模倣し,neurips 2020のコンペティションにおいて,上記の質問のさまざまな側面を対象とする。
neuripsコンペティションでは,400名近いチームが約4000回の応募を行い,それぞれのタスクに対して多様で効果的なアプローチを奨励しています。
関連論文リスト
- LOVA3: Learning to Visual Question Answering, Asking and Assessment [61.51687164769517]
質問への回答、質問、評価は、世界を理解し、知識を得るのに不可欠な3つの人間の特性である。
現在のMLLM(Multimodal Large Language Models)は主に質問応答に焦点を当てており、質問や評価スキルの可能性を無視することが多い。
LOVA3は、"Learning tO Visual Question Answering, Asking and Assessment"と名付けられた革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-05-23T18:21:59Z) - AI-TA: Towards an Intelligent Question-Answer Teaching Assistant using
Open-Source LLMs [2.6513660158945727]
我々は、オープンソースのLarge Language Models(LLM)を活用して、データのプライバシを確保する革新的なソリューションを紹介します。
提案手法は、検索強化生成(RAG)、教師付き微調整(SFT)、人間の嗜好データからの学習などの拡張技術を組み合わせたものである。
この作業は、オンラインQAプラットフォームでコースをカスタマイズ可能なインテリジェントQAアシスタントであるAI-TAの開発の道を開くものだ。
論文 参考訳(メタデータ) (2023-11-05T21:43:02Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - Learning to Reuse Distractors to support Multiple Choice Question
Generation in Education [19.408786425460498]
本稿では,教師が複数選択質問(MCQ)の作成を支援するために,手作業による回答と注意散らしの集合をいかに活用するかを検討する。
データ駆動モデルをいくつか構築し,静的な特徴ベースモデルと比較した。
自動評価と人的評価は、コンテキスト認識モデルが静的な特徴ベースのアプローチを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-25T12:48:56Z) - Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning [55.08037694027792]
複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:34:55Z) - Unsupervised Multiple Choices Question Answering: Start Learning from
Basic Knowledge [75.7135212362517]
我々は、ほとんど教師なしの多重選択質問回答(MCQA)の可能性について検討する。
提案手法は RACE のベースラインアプローチよりも優れており,MC500 の教師あり学習手法と同等である。
論文 参考訳(メタデータ) (2020-10-21T13:44:35Z) - Instructions and Guide for Diagnostic Questions: The NeurIPS 2020
Education Challenge [40.96530220202453]
この競技では,参加者は,複数項目の診断質問に対する生徒の回答記録に集中する。
我々は,Eediの数学質問に対する学生の回答を2000万件以上提供した。
論文 参考訳(メタデータ) (2020-07-23T15:17:36Z) - Educational Question Mining At Scale: Prediction, Analysis and
Personalization [35.42197158180065]
大規模に教育的な問題から洞察を抽出する枠組みを提案する。
我々は最先端のベイズ深層学習法、特に部分変分オートエンコーダ(p-VAE)を利用する。
提案したフレームワークを,数万の質問と数千万の回答をオンライン教育プラットフォームから収集した実世界のデータセットに適用する。
論文 参考訳(メタデータ) (2020-03-12T19:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。