論文の概要: DeepQR: Neural-based Quality Ratings for Learnersourced Multiple-Choice
Questions
- arxiv url: http://arxiv.org/abs/2111.10058v1
- Date: Fri, 19 Nov 2021 05:58:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 14:32:37.072362
- Title: DeepQR: Neural-based Quality Ratings for Learnersourced Multiple-Choice
Questions
- Title(参考訳): DeepQR: 学習用複数項目質問に対するニューラルネットワークによる品質評価
- Authors: Lin Ni, Qiming Bao, Xiaoxuan Li, Qianqian Qi, Paul Denny, Jim Warren,
Michael Witbrock, Jiamou Liu
- Abstract要約: 自動質問品質評価(AQQR)のためのニューラルネットモデルを提案する。
DeepQRは、広く使用されている学習データソーシングプラットフォームであるPeerWiseから収集された、Multiple-choice-question (MCQ)データセットを使用してトレーニングされている。
8つの大学レベルのコースから収集されたデータセットの実験によると、DeepQRは6つの比較モデルよりも優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 6.506382411474777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated question quality rating (AQQR) aims to evaluate question quality
through computational means, thereby addressing emerging challenges in online
learnersourced question repositories. Existing methods for AQQR rely solely on
explicitly-defined criteria such as readability and word count, while not fully
utilising the power of state-of-the-art deep-learning techniques. We propose
DeepQR, a novel neural-network model for AQQR that is trained using
multiple-choice-question (MCQ) datasets collected from PeerWise, a widely-used
learnersourcing platform. Along with designing DeepQR, we investigate models
based on explicitly-defined features, or semantic features, or both. We also
introduce a self-attention mechanism to capture semantic correlations between
MCQ components, and a contrastive-learning approach to acquire question
representations using quality ratings. Extensive experiments on datasets
collected from eight university-level courses illustrate that DeepQR has
superior performance over six comparative models.
- Abstract(参考訳): 自動質問品質評価(automated question quality rating, aqqr)は、計算手段を通じて質問品質を評価することを目的としている。
既存のAQQRの手法は、可読性や単語数といった明確に定義された基準にのみ依存するが、最先端のディープラーニング技術の力を十分に活用していない。
我々は、広く使われている学習者ソーシングプラットフォームであるPeerWiseから収集されたMultiple-choice-question (MCQ)データセットを用いてトレーニングされた、AQQRの新しいニューラルネットワークモデルであるDeepQRを提案する。
DeepQRの設計とともに、明示的に定義された機能やセマンティック機能に基づいたモデル、あるいはその両方を調査します。
また,MCQコンポーネント間の意味的相関を捉える自己認識機構や,品質評価を用いた質問表現獲得のためのコントラスト学習手法も導入する。
8つの大学レベルのコースから収集されたデータセットに関する広範な実験は、deepqrが6つの比較モデルよりも優れたパフォーマンスを示している。
関連論文リスト
- Multimodal Reranking for Knowledge-Intensive Visual Question Answering [77.24401833951096]
回答生成のための知識候補のランク付け品質を向上させるためのマルチモーダル・リランカを提案する。
OK-VQAとA-OKVQAの実験は、遠隔監視からのマルチモーダルリランカーが一貫した改善をもたらすことを示している。
論文 参考訳(メタデータ) (2024-07-17T02:58:52Z) - QADYNAMICS: Training Dynamics-Driven Synthetic QA Diagnostic for
Zero-Shot Commonsense Question Answering [48.25449258017601]
State-of-the-artはCommonSense Knowledge Basesから構築されたQAペア上での微調整言語モデルにアプローチする。
本稿では,QA診断と改善のためのトレーニング動的フレームワークQADYNAMICSを提案する。
論文 参考訳(メタデータ) (2023-10-17T14:27:34Z) - SQUARE: Automatic Question Answering Evaluation using Multiple Positive
and Negative References [73.67707138779245]
SQuArE (Sentence-level QUestion AnsweRing Evaluation) という新しい評価指標を提案する。
文レベルの抽出(回答選択)と生成(GenQA)の両方のQAシステムでSQuArEを評価する。
論文 参考訳(メタデータ) (2023-09-21T16:51:30Z) - Toward Unsupervised Realistic Visual Question Answering [70.67698100148414]
現実的なVQA(RVQA)の問題について検討し、モデルが答えられない質問(UQ)を拒絶し、答えられる質問(AQ)に答えなければならない。
1)データセットには不整合UQが多すぎること,(2)多数の注釈付きUQがトレーニングに必要とされること,の2つの欠点を最初に指摘した。
我々は、既存のVQAデータセットのAQと約29万の人間の注釈付きUQを組み合わせた新しいテストデータセットRGQAを提案する。
これは、画像と質問をランダムにペアリングして得られる擬似UQと、それを結合する。
論文 参考訳(メタデータ) (2023-03-09T06:58:29Z) - A Comparative Study of Question Answering over Knowledge Bases [2.6135123648293717]
知識ベースに対する質問応答 (KBQA) は,ユーザが知識ベースから情報を取り出すための一般的なアプローチとなっている。
8つのベンチマークデータセット上で6つの代表的なKBQAシステムの比較研究を行った。
本稿では,既存のモデルに優れた結果をもたらすための高度なマッピングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-15T14:23:47Z) - Modern Question Answering Datasets and Benchmarks: A Survey [5.026863544662493]
質問回答(QA)は、自然言語処理(NLP)の最も重要なタスクの一つである。
NLP技術を用いて、大量の非構造化コーパスに基づいて、与えられた質問に対する対応する回答を生成することを目的としている。
本稿では,ディープラーニングの時代にリリースされた,影響力あるQAデータセットについて検討する。
論文 参考訳(メタデータ) (2022-06-30T05:53:56Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - OpenQA: Hybrid QA System Relying on Structured Knowledge Base as well as
Non-structured Data [15.585969737147892]
構造化KBと非構造化データに基づく知的質問応答システムOpenQAを提案する。
我々は、意味解析と深層表現学習に基づくKBQA構造化質問応答と、検索とニューラルマシン読解に基づく2段階非構造化質問応答をOpenQAに統合する。
論文 参考訳(メタデータ) (2021-12-31T09:15:39Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - EQG-RACE: Examination-Type Question Generation [21.17100754955864]
本論文では, RACEから抽出したデータセットをもとに, 試験型質問生成手法 (EQG-RACE) を提案する。
EQG-RACEでは、離散的な回答情報を扱うための2つの主要な戦略と、長い文脈における推論が採用されています。
実験結果は、ベースラインよりも優れたEQG-RACEの最先端の性能を示しています。
論文 参考訳(メタデータ) (2020-12-11T03:52:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。