論文の概要: CDGP: Automatic Cloze Distractor Generation based on Pre-trained Language Model
- arxiv url: http://arxiv.org/abs/2403.10326v1
- Date: Fri, 15 Mar 2024 14:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 16:51:41.577886
- Title: CDGP: Automatic Cloze Distractor Generation based on Pre-trained Language Model
- Title(参考訳): CDGP:事前学習言語モデルに基づく自動クローゼディトラクタ生成
- Authors: Shang-Hsuan Chiang, Ssu-Cheng Wang, Yao-Chung Fan,
- Abstract要約: 本稿では,事前学習型言語モデル (PLM) の代替案としての利用について検討する。
実験により、PLM強化モデルは大幅な性能改善をもたらすことが示された。
- 参考スコア(独自算出の注目度): 2.2169618382995764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manually designing cloze test consumes enormous time and efforts. The major challenge lies in wrong option (distractor) selection. Having carefully-design distractors improves the effectiveness of learner ability assessment. As a result, the idea of automatically generating cloze distractor is motivated. In this paper, we investigate cloze distractor generation by exploring the employment of pre-trained language models (PLMs) as an alternative for candidate distractor generation. Experiments show that the PLM-enhanced model brings a substantial performance improvement. Our best performing model advances the state-of-the-art result from 14.94 to 34.17 (NDCG@10 score). Our code and dataset is available at https://github.com/AndyChiangSH/CDGP.
- Abstract(参考訳): 手動でクローズテストを設計することは、膨大な時間と労力を消費します。
最大の課題は、間違った選択肢(デストラクタ)の選択です。
注意深い設計の気を散らすことで、学習者の能力評価の有効性が向上する。
その結果、クローズイントラクタを自動生成するアイデアが動機付けられる。
本稿では,事前学習型言語モデル (PLM) の代替として, クローゼイントラクタ生成を探索し, クローゼイントラクタ生成について検討する。
実験により、PLM強化モデルは大幅な性能改善をもたらすことが示された。
私たちの最高のパフォーマンスモデルは、14.94から34.17(NDCG@10スコア)まで、最先端の結果を前進させます。
私たちのコードとデータセットはhttps://github.com/AndyChiangSH/CDGPで公開されています。
関連論文リスト
- NC-TTT: A Noise Contrastive Approach for Test-Time Training [19.0284321951354]
ノイズコントラストテストタイムトレーニング(NC-TTT)は,ノイズの特徴マップの識別に基づく非教師なしTTT技術である。
予測された特徴写像のノイズの多いビューを分類し、新しい領域に応じてモデルを適応させることで、分類性能を重要なマージンで回復させることができる。
論文 参考訳(メタデータ) (2024-04-12T10:54:11Z) - Challenging Forgets: Unveiling the Worst-Case Forget Sets in Machine
Unlearning [10.923035911711999]
マシン・アンラーニング(MU)は、選択したデータポイントがモデルの性能に与える影響を排除することを目的としている。
データ影響消去のための様々なMU手法にもかかわらず、評価は主にランダムなデータの忘れ方に焦点を当てている。
本稿では,影響消去の最も重要な課題を示すデータサブセットの同定を提案する。
論文 参考訳(メタデータ) (2024-03-12T06:50:32Z) - Secrets of RLHF in Large Language Models Part II: Reward Modeling [134.97964938009588]
本稿では,データセットにおける不正確で曖昧な嗜好の影響を軽減するために,一連の新しい手法を紹介する。
また、選択された応答と拒否された応答を区別する報酬モデルの有用性を高めるために、対照的な学習を導入する。
論文 参考訳(メタデータ) (2024-01-11T17:56:59Z) - POUF: Prompt-oriented unsupervised fine-tuning for large pre-trained
models [62.23255433487586]
モデルに微調整を施したり、ラベルのないターゲットデータにプロンプトを施したりするための教師なしの微調整フレームワークを提案する。
本稿では,プロンプトとターゲットデータから抽出した離散分布を整列させて,言語拡張視覚とマスキング言語モデルの両方に適用する方法を示す。
論文 参考訳(メタデータ) (2023-04-29T22:05:22Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - Bridging the Gap Between Training and Inference of Bayesian Controllable
Language Models [58.990214815032495]
大規模事前学習型言語モデルは、自然言語生成タスクにおいて大きな成功を収めている。
BCLMは制御可能な言語生成において効率的であることが示されている。
本稿では,ミスマッチ問題を少ない計算コストで軽減する制御可能な言語生成のための"Gemini Discriminator"を提案する。
論文 参考訳(メタデータ) (2022-06-11T12:52:32Z) - Ensembling Off-the-shelf Models for GAN Training [55.34705213104182]
事前学習されたコンピュータビジョンモデルは、識別器のアンサンブルで使用する場合、性能を著しく向上させることができる。
本研究では,事前学習したモデル埋め込みにおける実検体と偽検体間の線形分離性を検証し,効率的な選択機構を提案する。
本手法は, 限られたデータと大規模設定の両方において, GAN トレーニングを改善することができる。
論文 参考訳(メタデータ) (2021-12-16T18:59:50Z) - Utilizing Self-supervised Representations for MOS Prediction [51.09985767946843]
既存の評価は通常、クリーンな参照または平行な地上真実データを必要とする。
一方、主観的テストは、追加のクリーンデータや並列データを必要としず、人間の知覚とよりよく相関する。
基礎的真理データを必要とせず,人間の知覚とよく相関する自動評価手法を開発した。
論文 参考訳(メタデータ) (2021-04-07T09:44:36Z) - Controllable Generation from Pre-trained Language Models via Inverse
Prompting [47.23315683944257]
テキスト生成をよりよく制御する革新的な手法である逆プロンプトを提案する。
逆プロンプトは生成されたテキストを使用してビーム探索中に逆プロンプトを予測する。
その結果,提案手法はベースラインを大きく上回ることがわかった。
論文 参考訳(メタデータ) (2021-03-19T08:36:52Z) - EnD: Entangling and Disentangling deep representations for bias
correction [7.219077740523682]
本稿では,深層モデルが望ましくないバイアスを学習することを防止するための正規化戦略であるEnDを提案する。
特に、深層ニューラルネットワークの特定のポイントに「情報のボトルネック」を挿入し、バイアスに関する情報を分離する。
実験によると、EnDは偏りのないテストセットの一般化を効果的に改善する。
論文 参考訳(メタデータ) (2021-03-02T20:55:42Z) - Better Distractions: Transformer-based Distractor Generation and
Multiple Choice Question Filtering [4.168157981135697]
我々はGPT-2言語モデルをトレーニングし、与えられた質問とテキストコンテキストに対して3つの気晴らしを生成する。
次に、複数の選択質問(MCQ)に答えるためにBERT言語モデルをトレーニングし、このモデルをフィルタとして使用する。
論文 参考訳(メタデータ) (2020-10-19T15:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。