論文の概要: Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students
- arxiv url: http://arxiv.org/abs/2411.18708v1
- Date: Wed, 27 Nov 2024 19:19:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:19:17.333491
- Title: Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students
- Title(参考訳): 教育におけるAIの導入:中学生の大規模言語モデル利用の急増を理解する
- Authors: Tiffany Zhu, Kexun Zhang, William Yang Wang,
- Abstract要約: OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
- 参考スコア(独自算出の注目度): 53.20318273452059
- License:
- Abstract: The impressive essay writing and problem-solving capabilities of large language models (LLMs) like OpenAI's ChatGPT have opened up new avenues in education. Our goal is to gain insights into the widespread use of LLMs among secondary students to inform their future development. Despite school restrictions, our survey of over 300 middle and high school students revealed that a remarkable 70% of students have utilized LLMs, higher than the usage percentage among young adults, and this percentage remains consistent across 7th to 12th grade. Students also reported using LLMs for multiple subjects, including language arts, history, and math assignments, but expressed mixed thoughts on their effectiveness due to occasional hallucinations in historical contexts and incorrect answers for lack of rigorous reasoning. The survey feedback called for LLMs better adapted for students, and also raised questions to developers and educators on how to help students from underserved communities leverage LLMs' capabilities for equal access to advanced education resources. We propose a few ideas to address such issues, including subject-specific models, personalized learning, and AI classrooms.
- Abstract(参考訳): OpenAIのChatGPTのような大きな言語モデル(LLM)の素晴らしいエッセイと問題解決能力は、教育の新しい道を開いた。
我々のゴールは、中等生がLLMを広く活用し、将来の発展を知らせることである。
学業制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,若年者におけるLDMの使用率よりも,顕著な70%の学生がLDMを使用しており,この割合は7年生から12年生の間で一定であることがわかった。
学生はまた、言語芸術、歴史、数学の課題を含む複数の科目でLLMを使うことを報告したが、歴史的文脈における時折幻覚と厳密な推論の欠如による誤った答えのために、その効果について様々な考えを表現した。
調査のフィードバックでは、LLMの学生への適応性が向上し、開発者や教育者に対して、LLMの能力を活用して先進的な教育資源に平等にアクセスできるようにする方法に関する質問が寄せられた。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
関連論文リスト
- Position: LLMs Can be Good Tutors in Foreign Language Education [87.88557755407815]
我々は、外国語教育(FLE)において、大きな言語モデル(LLM)が効果的な家庭教師として機能する可能性を主張する。
具体的には、(1)データエンハンサーとして、(2)学習教材の作成や学生シミュレーションとして、(2)タスク予測器として、学習者の評価や学習経路の最適化に、(3)エージェントとして、そして、パーソナライズされた包括的教育を可能にする3つの重要な役割を果たせる。
論文 参考訳(メタデータ) (2025-02-08T06:48:49Z) - Is ChatGPT Massively Used by Students Nowadays? A Survey on the Use of Large Language Models such as ChatGPT in Educational Settings [0.25782420501870296]
本研究では,フランスとイタリアで13歳から25歳までの395人の学生を対象に,Large Language Models(LLM)を教育ルーチンに統合する方法について検討した。
主な発見は、すべての年齢グループと規律でこれらのツールが広く使われていることである。
結果はまた、ジェンダー格差を示し、新興のAIリテラシーと技術的男女格差に関する懸念を提起している。
論文 参考訳(メタデータ) (2024-12-23T11:29:44Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - "The teachers are confused as well": A Multiple-Stakeholder Ethics
Discussion on Large Language Models in Computing Education [17.25008833760501]
大きな言語モデル(LLM)は急速に進歩し、人々の生活に良くも悪くも影響を与えています。
高等教育においては、学生のLDMの誤用や教育成果の低下といった懸念が浮かび上がっている。
我々は,高等教育コンピュータサイエンスにおける利害関係者インタビューのケーススタディを行った。
論文 参考訳(メタデータ) (2024-01-23T02:43:00Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Three Questions Concerning the Use of Large Language Models to
Facilitate Mathematics Learning [4.376598435975689]
本稿では,学生の数学的問題解決能力を高めるために,大規模言語モデルを採用する際の課題について論じる。
LLMは間違った推論プロセスを生成することができ、また、学生の回答を正そうとするときに与えられた質問の理性を理解するのに困難を示す。
論文 参考訳(メタデータ) (2023-10-20T16:05:35Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - "With Great Power Comes Great Responsibility!": Student and Instructor
Perspectives on the influence of LLMs on Undergraduate Engineering Education [2.766654468164438]
LLM(Large Language Models)の人気が高まり、学術界で議論が巻き起こった。
本稿ではインドの大学工学部における調査とインタビューを行う。
学生1306名,学生インタビュー112名,インストラクターインタビュー27名を対象に,現在の利用パターンについて考察した。
論文 参考訳(メタデータ) (2023-09-19T15:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。