論文の概要: Generating Adequate Distractors for Multiple-Choice Questions
- arxiv url: http://arxiv.org/abs/2010.12658v1
- Date: Fri, 23 Oct 2020 20:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 22:51:21.594899
- Title: Generating Adequate Distractors for Multiple-Choice Questions
- Title(参考訳): 複数項目問合せ用アディケートディトラクタの生成
- Authors: Cheng Zhang, Yicheng Sun, Hejia Chen, Jie Wang
- Abstract要約: 本手法は, 音声タグ付け, 名前付きタグ付け, セマンティックロールラベル付け, 正規表現, ドメイン知識ベース, 単語埋め込み, 単語編集距離, ワードネット, その他のアルゴリズムの組み合わせである。
実験と人的判断により,各MCQは少なくとも1つの適切な注意障害を有し,評価の84%は3つの適切な注意障害を有することを示した。
- 参考スコア(独自算出の注目度): 7.966913971277812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel approach to automatic generation of adequate
distractors for a given question-answer pair (QAP) generated from a given
article to form an adequate multiple-choice question (MCQ). Our method is a
combination of part-of-speech tagging, named-entity tagging, semantic-role
labeling, regular expressions, domain knowledge bases, word embeddings, word
edit distance, WordNet, and other algorithms. We use the US SAT (Scholastic
Assessment Test) practice reading tests as a dataset to produce QAPs and
generate three distractors for each QAP to form an MCQ. We show that, via
experiments and evaluations by human judges, each MCQ has at least one adequate
distractor and 84\% of MCQs have three adequate distractors.
- Abstract(参考訳): 本稿では,ある記事から生成した質問応答対(QAP)に対して,適切な複数選択質問(MCQ)を自動生成する手法を提案する。
提案手法は,文節タギング,名前付きエンティティタギング,セマンティクスロールラベリング,正規表現,ドメイン知識ベース,単語埋め込み,単語編集距離,wordnet,その他のアルゴリズムを組み合わせたものである。
我々は,米国SAT (Scholastic Assessment Test) の実践的読解試験をデータセットとして使用し,QAPを生成し,各QAPに対して3つのイントラクタを生成してMCQを形成する。
人間の判断による実験と評価により,各MCQは少なくとも1つの適切な注意散布器を持ち,84%のMCQは3つの適切な注意散布器を持っていることがわかった。
関連論文リスト
- Constructing Cloze Questions Generatively [2.2719421441459406]
本稿では,ニューラルネットワークとWordNetを用いた記事からクローゼ質問を生成する手法を提案する。
CQGは与えられた文に対する応答キーを選択し、それを一連のインスタンスに分割し、トランスフォーマーとシリングシンセットを使用してインスタンスレベルのイントラクタ候補(IDC)を生成する。
その後、不適切なIDCを除去し、文脈的埋め込み類似性に基づいて残りのIDCをランク付けし、シンセセットや語彙的関連性に基づき、インスタンスを対応する上位IDCに置き換え、適切なフレーズかどうかを判定する。
論文 参考訳(メタデータ) (2024-10-05T18:55:38Z) - LINKAGE: Listwise Ranking among Varied-Quality References for Non-Factoid QA Evaluation via LLMs [61.57691505683534]
非F (Non-Factoid) Question Answering (QA) は多種多様な潜在的回答と客観的基準により評価が困難である。
大規模言語モデル (LLM) は、様々なNLPタスクにおいて魅力的な性能を持つため、NFQAの評価に利用されてきた。
提案手法は,LLMを用いて基準回答のランク付けを行う新しい評価手法であるNFQAの評価手法を提案する。
論文 参考訳(メタデータ) (2024-09-23T06:42:21Z) - Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化(英: Uncertainty Quantification、UQ)は、機械学習(ML)アプリケーションにおいて重要なコンポーネントである。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、9つのタスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も有望なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - Assessing Distractors in Multiple-Choice Tests [10.179963650540056]
複数項目の読解テストにおいて, 気晴らしの質を測る指標を提案する。
具体的には,不正確さ,妥当性,不適切な選択肢の多様性の観点から,品質を定義します。
論文 参考訳(メタデータ) (2023-11-08T09:37:09Z) - SQUARE: Automatic Question Answering Evaluation using Multiple Positive
and Negative References [73.67707138779245]
SQuArE (Sentence-level QUestion AnsweRing Evaluation) という新しい評価指標を提案する。
文レベルの抽出(回答選択)と生成(GenQA)の両方のQAシステムでSQuArEを評価する。
論文 参考訳(メタデータ) (2023-09-21T16:51:30Z) - EMBRACE: Evaluation and Modifications for Boosting RACE [0.0]
RACEは英語のテキストとそれに対応する多重選択質問(MCQ)のデータセットである
RACEは、人間の読みを理解するために、中国語の英語教師によって構築された。
本稿では,高校生を対象とした RACE テストセットの詳細な分析を行う。
論文 参考訳(メタデータ) (2023-05-15T08:21:32Z) - Automatic Generation of Multiple-Choice Questions [7.310488568715925]
本稿では,QAP世代における課題に取り組むための2つの方法を提案する。
事前処理と後処理パイプラインを備えたT5 Transformerに基づくディープラーニングに基づくエンドツーエンド質問生成システム。
文のメタシーケンス表現を用いて適切なQAPを生成するシーケンス学習に基づくスキーム。
論文 参考訳(メタデータ) (2023-03-25T22:45:54Z) - Tag-Set-Sequence Learning for Generating Question-Answer Pairs [10.48660454637293]
テキストに対する愚かな質問を生成する問題に対処するために,タグセットシーケンス学習と呼ばれる新しい手法を提案する。
我々は,与えられた宣言文と対応する疑問文からタグセットシーケンスを学習するTSS-Learnerというシステムを構築した。
TSS-Learnerは、トランスフォーマーベースのモデルでは不十分な特定のテキストに対して適切なQAPを生成することができることを示す。
論文 参考訳(メタデータ) (2022-10-20T21:51:00Z) - PACIFIC: Towards Proactive Conversational Question Answering over
Tabular and Textual Data in Finance [96.06505049126345]
我々はPACIFICという新しいデータセットを提案する。既存のCQAデータセットと比較すると、PACIFICは(i)活動性、(ii)数値推論、(iii)表とテキストのハイブリッドコンテキストの3つの重要な特徴を示す。
質問生成とCQAを組み合わせたPCQA(Proactive Conversational Question Answering)に基づいて,新しいタスクを定義する。
UniPCQAはPCQAのすべてのサブタスク上でマルチタスク学習を行い、Seeq2Seqの上位$kのサンプルをクロスバリデーションすることで、マルチタスク学習におけるエラー伝搬問題を緩和するための単純なアンサンブル戦略を取り入れている。
論文 参考訳(メタデータ) (2022-10-17T08:06:56Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。