論文の概要: GPT-3-driven pedagogical agents for training children's curious
question-asking skills
- arxiv url: http://arxiv.org/abs/2211.14228v6
- Date: Tue, 30 May 2023 14:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 02:19:02.617131
- Title: GPT-3-driven pedagogical agents for training children's curious
question-asking skills
- Title(参考訳): GPT-3による子どもの興味ある質問応答スキルの育成
- Authors: Rania Abdelghani, Yen-Hsiang Wang, Xingdi Yuan, Tong Wang, Pauline
Lucas, H\'el\`ene Sauz\'eon and Pierre-Yves Oudeyer
- Abstract要約: 本研究では,この課題を自然文で LLM に説明するための "prompt-based" 手法を用いて,その内容の生成について検討する。
我々は,1) 「クローズド」 キューを提案する手作りコンテンツ,2) 同じタイプのキューを提案するGPT-3生成コンテンツ,3) 「オープン」 キューを提案するGPT-3生成コンテンツ,の3つを比較した。
- 参考スコア(独自算出の注目度): 23.284865179388024
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In order to train children's ability to ask curiosity-driven questions,
previous research has explored designing specific exercises relying on
providing semantic and linguistic cues to help formulate such questions. But
despite showing pedagogical efficiency, this method is still limited as it
relies on generating the said cues by hand, which can be a very costly process.
In this context, we propose to leverage advances in the natural language
processing field (NLP) and investigate the efficiency of using a large language
model (LLM) for automating the production of the pedagogical content of a
curious question-asking (QA) training. We study generating the said content
using the "prompt-based" method that consists of explaining the task to the LLM
in natural text. We evaluate the output using human experts annotations and
comparisons with hand-generated content. Results suggested indeed the relevance
and usefulness of this content. We also conduct a field study in primary school
(75 children aged 9-10), where we evaluate children's QA performance when
having this training. We compare 3 types of content : 1) hand-generated content
that proposes "closed" cues leading to predefined questions; 2) GPT-3-generated
content that proposes the same type of cues; 3) GPT-3-generated content that
proposes "open" cues leading to several possible questions. We see a similar QA
performance between the two "closed" trainings (showing the scalability of the
approach using GPT-3), and a better one for participants with the "open"
training. These results suggest the efficiency of using LLMs to support
children in generating more curious questions, using a natural language
prompting approach that affords usability by teachers and other users not
specialists of AI techniques. Furthermore, results also show that open-ended
content may be more suitable for training curious question-asking skills.
- Abstract(参考訳): 好奇心を駆使した質問を行う子どもの能力を訓練するために、これまでの研究では、そのような質問を定式化するための意味的および言語的手がかりを提供することに依存する特定の演習を設計することを検討した。
しかし、教育的効率を示すにもかかわらず、この方法は手作業でその手がかりを生成することに依存しているため、非常にコストのかかるプロセスである。
本稿では、自然言語処理分野(NLP)の進歩を活用し、興味ある質問応答(QA)トレーニングの教育内容の自動生成に大規模言語モデル(LLM)を用いることの効率性を検討することを提案する。
本研究では,この課題を自然文で LLM に説明するための "prompt-based" 手法を用いて,その内容を生成する。
人的専門家のアノテーションと手作りコンテンツとの比較を用いて評価を行った。
その結果,本コンテンツの有用性と有用性が示唆された。
また,小学校(75歳,9~10歳)のフィールドスタディも実施し,このトレーニングを行った場合のQA評価を行った。
1) 事前定義された質問に導く「閉じた」手がかりを提案する手作りコンテンツの比較を行う。
2)同じ種類の手がかりを提案するGPT-3生成コンテンツ
3) GPT-3 生成コンテンツは「オープン」な手がかりを提示し,いくつかの疑問が浮かび上がった。
2つの"クローズド"トレーニング(GPT-3を使用したアプローチのスケーラビリティを示す)と、"オープン"トレーニングの参加者に対して、同様のQAパフォーマンスが見られます。
これらの結果は、教師や他のai技術の専門家ではなく、ユーザビリティを提供する自然言語プロンプトアプローチを用いて、子供を支援するためにllmを使用する効率を示唆する。
さらに,オープンエンドコンテンツは,好奇心の強い質問応答スキルのトレーニングに適している可能性が示唆された。
関連論文リスト
- Scenarios and Approaches for Situated Natural Language Explanations [18.022428746019582]
ベンチマークデータセットである条件ベース説明を収集します。
このデータセットには100の説明書が含まれている。
オーディエンスと組み合わせたエクスラナンダム(explanandum paired with a audience)"の各状況について、人間による説明を含める。
本稿では,ルールベースのプロンプト,メタプロンプト,コンテキスト内学習プロンプトの3つのカテゴリについて検討する。
論文 参考訳(メタデータ) (2024-06-07T15:56:32Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - ChatPRCS: A Personalized Support System for English Reading
Comprehension based on ChatGPT [3.847982502219679]
本稿では,ChatPRCSと呼ばれる読解支援システムを提案する。
ChatPRCSは、理解能力予測、質問生成、自動評価などの手法を採用している。
論文 参考訳(メタデータ) (2023-09-22T11:46:44Z) - Improving Reading Comprehension Question Generation with Data
Augmentation and Overgenerate-and-rank [3.854023945160742]
自動回答対応読解質問生成は、教育活動における学習者支援を拡大する大きな可能性を秘めている。
この設定における重要な技術的課題の1つは、複数の質問があり得るということです。
本研究では,(1)同じ文脈と回答を与えられた多様な質問でトレーニングデータセットを充実させるデータ拡張手法,(2)候補のプールから最適な質問を選択する過剰な生成とランクの手法を提案する。
論文 参考訳(メタデータ) (2023-06-15T04:23:25Z) - UKP-SQuARE: An Interactive Tool for Teaching Question Answering [61.93372227117229]
質問応答の指数的増加(QA)は、あらゆる自然言語処理(NLP)コースにおいて必須のトピックとなっている。
本稿では、QA教育のプラットフォームとしてUKP-SQuAREを紹介する。
学生は様々な視点から様々なQAモデルを実行、比較、分析することができる。
論文 参考訳(メタデータ) (2023-05-31T11:29:04Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - Fantastic Questions and Where to Find Them: FairytaleQA -- An Authentic
Dataset for Narrative Comprehension [136.82507046638784]
幼稚園児の物語理解に焦点を当てたデータセットであるFairytaleQAを8年生に紹介する。
FairytaleQAは10,580の明示的で暗黙的な質問で構成されており、278の子供フレンドリーな物語から導かれる。
論文 参考訳(メタデータ) (2022-03-26T00:20:05Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - An Automated Multiple-Choice Question Generation Using Natural Language
Processing Techniques [0.913755431537592]
コンピュータベーステスト試験 (CBTE) のための自動複数選択質問生成 (MCQG) のための NLP ベースのシステムを提案する。
我々は,nlp手法を用いて,学習教材中の重要な単語を抽出した。
システムが逆でないことを検証するために、5つの教材を用いてシステムの有効性と効率を確認した。
論文 参考訳(メタデータ) (2021-03-26T22:39:59Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。