論文の概要: Towards Mitigating ChatGPT's Negative Impact on Education: Optimizing
Question Design through Bloom's Taxonomy
- arxiv url: http://arxiv.org/abs/2304.08176v1
- Date: Fri, 31 Mar 2023 00:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-23 04:25:37.900750
- Title: Towards Mitigating ChatGPT's Negative Impact on Education: Optimizing
Question Design through Bloom's Taxonomy
- Title(参考訳): chatgptの教育への悪影響緩和に向けて--bloomの分類による質問設計の最適化
- Authors: Saber Elsayed
- Abstract要約: 本稿では,Bloomの分類キーワードの最適セットを特定し,これらのツールが回答に自信を欠くような質問を生成するための進化的アプローチを提案する。
このアプローチの有効性は、オーストラリア、カンベラのニューサウスウェールズ大学で教えられているデータ構造・表現コースからの質問を用いたケーススタディによって評価される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The popularity of generative text AI tools in answering questions has led to
concerns regarding their potential negative impact on students' academic
performance and the challenges that educators face in evaluating student
learning. To address these concerns, this paper introduces an evolutionary
approach that aims to identify the best set of Bloom's taxonomy keywords to
generate questions that these tools have low confidence in answering. The
effectiveness of this approach is evaluated through a case study that uses
questions from a Data Structures and Representation course being taught at the
University of New South Wales in Canberra, Australia. The results demonstrate
that the optimization algorithm is able to find keywords from different
cognitive levels to create questions that ChatGPT has low confidence in
answering. This study is a step forward to offer valuable insights for
educators seeking to create more effective questions that promote critical
thinking among students.
- Abstract(参考訳): 質問への回答における生成テキストAIツールの人気は、学生の学業成績に対する潜在的なネガティブな影響と、教育者が学生の学習を評価する際に直面する課題に懸念をもたらしている。
これらの問題に対処するために,Bloomの分類キーワードの最適セットを特定し,これらのツールが回答に対する信頼度を低く抑えるための進化的アプローチを提案する。
このアプローチの有効性は、オーストラリアのキャンベラにあるニューサウスウェールズ大学(university of new south wales)で教えられているデータ構造と表現コースからの質問を用いたケーススタディを通じて評価される。
結果は,ChatGPTが回答の信頼度を低く抑えるために,異なる認知レベルからのキーワードを最適化アルゴリズムで検索できることを実証した。
本研究は,学生間の批判的思考を促進する効果的な質問の作成を目指す教育者に対して,貴重な洞察を提供するための一歩である。
関連論文リスト
- ChatGPT in Research and Education: Exploring Benefits and Threats [1.9466452723529557]
ChatGPTはOpenAIが開発した強力な言語モデルである。
パーソナライズされたフィードバックを提供し、アクセシビリティを高め、対話的な会話を可能にし、授業の準備と評価を支援し、複雑な科目を教えるための新しい方法を導入する。
ChatGPTは従来の教育や研究システムにも挑戦している。
これらの課題には、オンライン試験の不正行為のリスク、学術的完全性を損なう可能性のある人間のようなテキストの生成、AIによって生成された情報の信頼性を評価することの難しさなどが含まれる。
論文 参考訳(メタデータ) (2024-11-05T05:29:00Z) - Research on the Application of Large Language Models in Automatic Question Generation: A Case Study of ChatGLM in the Context of High School Information Technology Curriculum [3.0753648264454547]
モデルは多様な質問を生成するためにガイドされ、ドメインの専門家によって包括的に評価される。
以上の結果から,ChatGLMは人為的な質問に対して,明快さと教師の利用意欲で優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T11:38:32Z) - Could ChatGPT get an Engineering Degree? Evaluating Higher Education Vulnerability to AI Assistants [175.9723801486487]
我々は,2つのAIアシスタントであるGPT-3.5とGPT-4が適切な回答を得られるかどうかを評価する。
GPT-4は65.8%の質問を正解し、85.1%の質問に対して少なくとも1つの手順で正しい答えを出すことができる。
この結果から,AIの進歩を踏まえて,高等教育におけるプログラムレベルの評価設計の見直しが求められた。
論文 参考訳(メタデータ) (2024-08-07T12:11:49Z) - How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Covering Uncommon Ground: Gap-Focused Question Generation for Answer
Assessment [75.59538732476346]
このようなギャップに着目した質問(GFQ)を自動生成する問題に着目する。
タスクを定義し、優れたGFQの所望の側面を強調し、これらを満たすモデルを提案する。
論文 参考訳(メタデータ) (2023-07-06T22:21:42Z) - UKP-SQuARE: An Interactive Tool for Teaching Question Answering [61.93372227117229]
質問応答の指数的増加(QA)は、あらゆる自然言語処理(NLP)コースにおいて必須のトピックとなっている。
本稿では、QA教育のプラットフォームとしてUKP-SQuAREを紹介する。
学生は様々な視点から様々なQAモデルを実行、比較、分析することができる。
論文 参考訳(メタデータ) (2023-05-31T11:29:04Z) - Question Personalization in an Intelligent Tutoring System [5.644357169513361]
教科能力の異なる学生に合った質問を生成すれば,生徒の学習能力が向上することを示す。
この知見は,質問の言語的実現が学生の学習結果に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-05-25T15:23:51Z) - Real-Time Cognitive Evaluation of Online Learners through Automatically
Generated Questions [0.0]
本稿では,ビデオ講義から質問を自動的に生成する手法を提案する。
生成された質問は、学習者の低レベルの認知能力を評価することを目的としている。
論文 参考訳(メタデータ) (2021-06-06T05:45:56Z) - Neural Multi-Task Learning for Teacher Question Detection in Online
Classrooms [50.19997675066203]
教師の音声記録から質問を自動的に検出するエンドツーエンドのニューラルネットワークフレームワークを構築している。
マルチタスク学習手法を取り入れることで,質問の種類によって意味的関係の理解を深めることが可能となる。
論文 参考訳(メタデータ) (2020-05-16T02:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。