論文の概要: ExamGAN and Twin-ExamGAN for Exam Script Generation
- arxiv url: http://arxiv.org/abs/2108.09656v1
- Date: Sun, 22 Aug 2021 07:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:26:30.573774
- Title: ExamGAN and Twin-ExamGAN for Exam Script Generation
- Title(参考訳): Exam Script 生成のための ExamGAN と Twin-ExamGAN
- Authors: Zhengyang Wu, Ke Deng, Judy Qiu, Yong Tang
- Abstract要約: 授業中の学生のスコアを望ましい分布にできる試験スクリプトをどうやって生成するかは、まだ不明である。
評価において同等の高品質なテストスクリプトをどうやって生成するかは、今のところ不明である。
本稿では,高品質な試験スクリプトを生成するためにExamGANを提案し,その後,T-ExamGANに拡張して高品質な試験スクリプトを生成する。
- 参考スコア(独自算出の注目度): 3.1902272671210468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, the learning management system (LMS) has been widely used in
different educational stages from primary to tertiary education for student
administration, documentation, tracking, reporting, and delivery of educational
courses, training programs, or learning and development programs. Towards
effective learning outcome assessment, the exam script generation problem has
attracted many attentions and been investigated recently. But the research in
this field is still in its early stage. There are opportunities to further
improve the quality of generated exam scripts in various aspects. In
particular, two essential issues have been ignored largely by existing
solutions. First, given a course, it is unknown yet how to generate an exam
script which can result in a desirable distribution of student scores in a
class (or across different classes). Second, while it is frequently encountered
in practice, it is unknown so far how to generate a pair of high quality exam
scripts which are equivalent in assessment (i.e., the student scores are
comparable by taking either of them) but have significantly different sets of
questions. To fill the gap, this paper proposes ExamGAN (Exam Script Generative
Adversarial Network) to generate high quality exam scripts, and then extends
ExamGAN to T-ExamGAN (Twin-ExamGAN) to generate a pair of high quality exam
scripts. Based on extensive experiments on three benchmark datasets, it has
verified the superiority of proposed solutions in various aspects against the
state-of-the-art. Moreover, we have conducted a case study which demonstrated
the effectiveness of proposed solution in a real teaching scenario.
- Abstract(参考訳): 現在、学習管理システム(LMS)は、初等教育から第三級教育の学生管理、文書化、追跡、報告、教育コースの納入、研修プログラム、学習・開発プログラムなど、様々な教育段階において広く利用されている。
効果的な学習成果評価に向けて,試験台本生成問題が多く注目され,近年研究されている。
しかし、この分野の研究はまだ初期段階にある。
様々な面から、生成した試験用スクリプトの品質をさらに改善する機会がある。
特に2つの重要な問題は、既存のソリューションによって無視されている。
第一に、コースが与えられた場合、クラス(または異なるクラス)における学生スコアの望ましい分布をもたらす試験スクリプトをどうやって生成するかは、まだ不明である。
第二に、実際に頻繁に遭遇するが、評価において同等の高品質な試験スクリプトをどうやって生成するか(すなわち、学生のスコアはどちらかを採って比較する)は今のところ不明である。
このギャップを埋めるために,ExamGAN (Exam Script Generative Adversarial Network) を提案し,その後,ExamGAN を T-ExamGAN (Twin-ExamGAN) に拡張し,高品質なテストスクリプトを生成する。
3つのベンチマークデータセットに関する広範な実験に基づいて、提案手法が最先端に対する様々な面で優れていることを検証した。
さらに本研究は,実教育シナリオにおける提案手法の有効性を実証する事例である。
関連論文リスト
- TestBench: Evaluating Class-Level Test Case Generation Capability of Large Language Models [8.22619177301814]
クラスレベルのLLMベースのテストケース生成のためのベンチマークであるTestBenchを紹介する。
GitHub上の9つの実世界の大規模プロジェクトから108のJavaプログラムのデータセットを構築します。
本稿では,構文的正当性,コンパイル的正当性,テスト的正当性,コードカバレッジ率,欠陥検出率という,テストケースの5つの側面を考慮した詳細な評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-26T06:18:06Z) - A Comprehensive Survey on Underwater Image Enhancement Based on Deep Learning [51.7818820745221]
水中画像強調(UIE)はコンピュータビジョン研究において重要な課題である。
多数のUIEアルゴリズムが開発されているにもかかわらず、網羅的で体系的なレビューはいまだに欠落している。
論文 参考訳(メタデータ) (2024-05-30T04:46:40Z) - Computer Aided Design and Grading for an Electronic Functional
Programming Exam [0.0]
本稿では,既存の編集距離に基づくアルゴリズムと比較して公平性を向上させる証明ラインの正しいシーケンスを探索し,Proof Puzzlesをチェックするアルゴリズムを提案する。
正規表現を指定するための高レベルな言語とオープンソースツールにより、複雑な正規表現の作成はエラーを起こしやすい。
学習過程における自動化の度合いを分析し,学生に意見を求め,自身の経験を批判的にレビューすることで,その結果のe-examを評価する。
論文 参考訳(メタデータ) (2023-08-14T07:08:09Z) - Benchmarking Foundation Models with Language-Model-as-an-Examiner [47.345760054595246]
本稿では,新しいベンチマークフレームワークLanguage-Model-as-an-Examinerを提案する。
LMは、その知識に基づいて質問を定式化し、基準のない方法で応答を評価する、知識に富んだ検査者として機能する。
論文 参考訳(メタデータ) (2023-06-07T06:29:58Z) - On Pitfalls of Test-Time Adaptation [82.8392232222119]
TTA(Test-Time Adaptation)は、分散シフトの下で堅牢性に取り組むための有望なアプローチとして登場した。
TTABは,10の最先端アルゴリズム,多種多様な分散シフト,および2つの評価プロトコルを含むテスト時間適応ベンチマークである。
論文 参考訳(メタデータ) (2023-06-06T09:35:29Z) - Reinforcement Learning Guided Multi-Objective Exam Paper Generation [21.945655389912112]
そこで本研究では,MOEPGと呼ばれる多目的文書生成フレームワークを提案する。
難易度、試験スコアの配分、スキルカバレッジを含む3つの試験領域固有の目的を同時に最適化する。
試験用紙生成シナリオの多重ジレンマにMOEPGが適用可能であることを示す。
論文 参考訳(メタデータ) (2023-03-02T07:55:52Z) - NEVIS'22: A Stream of 100 Tasks Sampled from 30 Years of Computer Vision
Research [96.53307645791179]
我々は,100以上の視覚的分類タスクのストリームからなるベンチマークであるNever-Ending VIsual-classification Stream (NEVIS'22)を紹介する。
分類に制限されているにもかかわらず、OCR、テクスチャ分析、シーン認識など、様々なタスクが生成される。
NEVIS'22は、タスクの規模と多様性のために、現在のシーケンシャルな学習アプローチに対して前例のない課題を提起している。
論文 参考訳(メタデータ) (2022-11-15T18:57:46Z) - IGLUE: A Benchmark for Transfer Learning across Modalities, Tasks, and
Languages [87.5457337866383]
画像認識言語理解評価ベンチマークについて紹介する。
IGLUEは、視覚的質問応答、クロスモーダル検索、グラウンドド推論、20言語にわたるグラウンドドエンターテイメントタスクをまとめて提供する。
翻訳-テストの転送はゼロショットの転送よりも優れており、少数ショットの学習は多くのタスクに役立てることが難しい。
論文 参考訳(メタデータ) (2022-01-27T18:53:22Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Automated Performance Testing Based on Active Deep Learning [2.179313476241343]
ブラックボックス性能試験のためのACTAと呼ばれる自動テスト生成手法を提案する。
ACTAはアクティブな学習に基づいており、テスト中のシステムのパフォーマンス特性を知るために、大量の履歴テストデータを必要としないことを意味します。
我々は,ベンチマークWebアプリケーション上でACTAを評価し,本手法がランダムテストに匹敵することを示す実験結果を得た。
論文 参考訳(メタデータ) (2021-04-05T18:19:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。