論文の概要: GPT-3-driven pedagogical agents for training children's curious
question-asking skills
- arxiv url: http://arxiv.org/abs/2211.14228v1
- Date: Fri, 25 Nov 2022 16:41:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 17:31:09.656140
- Title: GPT-3-driven pedagogical agents for training children's curious
question-asking skills
- Title(参考訳): GPT-3による子どもの興味ある質問応答スキルの育成
- Authors: Rania Abdelghani, Yen-Hsiang Wang, Xingdi Yuan, Tong Wang, H\'el\`ene
Sauz\'eon and Pierre-Yves Oudeyer
- Abstract要約: 学生が好奇心をそそる質問をする能力は、学習プロセスを改善する重要なスキルである。
これまでの研究では、学習中の子供の好奇心を促進するために特定の手がかりを提案する会話エージェントが用いられてきた。
本研究は,大規模言語モデル(GPT-3)を用いて,好奇心を刺激する手がかりの自動生成を行う。
- 参考スコア(独自算出の注目度): 24.673011541387137
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Students' ability to ask curious questions is a crucial skill that improves
their learning processes. To train this skill, previous research has used a
conversational agent that propose specific cues to prompt children's curiosity
during learning. Despite showing pedagogical efficiency, this method is still
limited since it relies on generating the said prompts by hand for each
educational resource, which can be a very long and costly process. In this
context, we leverage the advances in the natural language processing field and
explore using a large language model (GPT-3) to automate the generation of this
agent's curiosity-prompting cues to help children ask more and deeper
questions. We then used this study to investigate a different
curiosity-prompting behavior for the agent. The study was conducted with 75
students aged between 9 and 10. They either interacted with a hand-crafted
conversational agent that proposes "closed" manually-extracted cues leading to
predefined questions, a GPT-3-driven one that proposes the same type of cues,
or a GPT-3-driven one that proposes "open" cues that can lead to several
possible questions. Results showed a similar question-asking performance
between children who had the two "closed" agents, but a significantly better
one for participants with the "open" agent. Our first results suggest the
validity of using GPT-3 to facilitate the implementation of
curiosity-stimulating learning technologies. In a second step, we also show
that GPT-3 can be efficient in proposing the relevant open cues that leave
children with more autonomy to express their curiosity.
- Abstract(参考訳): 興味ある質問をする学生の能力は、学習プロセスを改善する重要なスキルである。
このスキルを訓練するために、従来の研究では、学習中の子供の好奇心を促進するために特定の手がかりを提案する会話エージェントを使用していた。
教育的効率を示すにもかかわらず、この方法は教育資源ごとに手動でプロンプトを生成することに依存しているため、非常に長くコストのかかるプロセスである。
この文脈では、自然言語処理分野の進歩を活用し、大きな言語モデル(GPT-3)を用いて、このエージェントの好奇心を刺激する手がかりを自動生成し、子どもたちがより深く問いかけるのを助ける。
この研究は、エージェントに対する異なる好奇心を喚起する行動を調べるために使用しました。
対象は9歳から10歳までの75名の学生であった。
彼らは手作りの会話エージェントと対話し、手動で抽出した手がかりを提案、事前定義された質問に繋がる「閉じた」手がかり、同じ種類の手がかりを提案できるgpt-3駆動のエージェント、あるいはいくつかの可能な質問につながる「オープンな」手がかりを提案できるgpt-3駆動のエージェントと対話した。
その結果,2つの「閉じた」エージェントを持つ子どもの間で同様の質問行動がみられたが,「開けた」エージェントの参加者の方が有意に良好であった。
最初の結果から,好奇心刺激学習技術の実装を容易にするため,GPT-3の有効性が示唆された。
第2のステップでは、GPT-3は、子どもに好奇心を表現させる自律性を持たせるための、関連するオープンな手がかりを提案する上で、効果的であることも示している。
関連論文リスト
- Scenarios and Approaches for Situated Natural Language Explanations [18.022428746019582]
ベンチマークデータセットである条件ベース説明を収集します。
このデータセットには100の説明書が含まれている。
オーディエンスと組み合わせたエクスラナンダム(explanandum paired with a audience)"の各状況について、人間による説明を含める。
本稿では,ルールベースのプロンプト,メタプロンプト,コンテキスト内学習プロンプトの3つのカテゴリについて検討する。
論文 参考訳(メタデータ) (2024-06-07T15:56:32Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - ChatPRCS: A Personalized Support System for English Reading
Comprehension based on ChatGPT [3.847982502219679]
本稿では,ChatPRCSと呼ばれる読解支援システムを提案する。
ChatPRCSは、理解能力予測、質問生成、自動評価などの手法を採用している。
論文 参考訳(メタデータ) (2023-09-22T11:46:44Z) - Improving Reading Comprehension Question Generation with Data
Augmentation and Overgenerate-and-rank [3.854023945160742]
自動回答対応読解質問生成は、教育活動における学習者支援を拡大する大きな可能性を秘めている。
この設定における重要な技術的課題の1つは、複数の質問があり得るということです。
本研究では,(1)同じ文脈と回答を与えられた多様な質問でトレーニングデータセットを充実させるデータ拡張手法,(2)候補のプールから最適な質問を選択する過剰な生成とランクの手法を提案する。
論文 参考訳(メタデータ) (2023-06-15T04:23:25Z) - UKP-SQuARE: An Interactive Tool for Teaching Question Answering [61.93372227117229]
質問応答の指数的増加(QA)は、あらゆる自然言語処理(NLP)コースにおいて必須のトピックとなっている。
本稿では、QA教育のプラットフォームとしてUKP-SQuAREを紹介する。
学生は様々な視点から様々なQAモデルを実行、比較、分析することができる。
論文 参考訳(メタデータ) (2023-05-31T11:29:04Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - Fantastic Questions and Where to Find Them: FairytaleQA -- An Authentic
Dataset for Narrative Comprehension [136.82507046638784]
幼稚園児の物語理解に焦点を当てたデータセットであるFairytaleQAを8年生に紹介する。
FairytaleQAは10,580の明示的で暗黙的な質問で構成されており、278の子供フレンドリーな物語から導かれる。
論文 参考訳(メタデータ) (2022-03-26T00:20:05Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - An Automated Multiple-Choice Question Generation Using Natural Language
Processing Techniques [0.913755431537592]
コンピュータベーステスト試験 (CBTE) のための自動複数選択質問生成 (MCQG) のための NLP ベースのシステムを提案する。
我々は,nlp手法を用いて,学習教材中の重要な単語を抽出した。
システムが逆でないことを検証するために、5つの教材を用いてシステムの有効性と効率を確認した。
論文 参考訳(メタデータ) (2021-03-26T22:39:59Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。