論文の概要: Can We Trust AI-Generated Educational Content? Comparative Analysis of
Human and AI-Generated Learning Resources
- arxiv url: http://arxiv.org/abs/2306.10509v2
- Date: Mon, 3 Jul 2023 06:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 12:35:43.168977
- Title: Can We Trust AI-Generated Educational Content? Comparative Analysis of
Human and AI-Generated Learning Resources
- Title(参考訳): AIによる教育コンテンツは信頼できるか?
人間とAIによる学習資源の比較分析
- Authors: Paul Denny and Hassan Khosravi and Arto Hellas and Juho Leinonen and
Sami Sarsa
- Abstract要約: 大規模言語モデル(LLMs)は、大規模に学習教材を迅速に作成する上で、有望なソリューションを提供するように見える。
学習指導活動の一環として,LLMが生み出す資源の質と学生が生み出す資源の質を比較した。
その結果、学生が認識するAI生成リソースの品質は、同僚が生成するリソースの品質と同等であることがわかった。
- 参考スコア(独自算出の注目度): 4.528957284486784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an increasing number of students move to online learning platforms that
deliver personalized learning experiences, there is a great need for the
production of high-quality educational content. Large language models (LLMs)
appear to offer a promising solution to the rapid creation of learning
materials at scale, reducing the burden on instructors. In this study, we
investigated the potential for LLMs to produce learning resources in an
introductory programming context, by comparing the quality of the resources
generated by an LLM with those created by students as part of a learnersourcing
activity. Using a blind evaluation, students rated the correctness and
helpfulness of resources generated by AI and their peers, after both were
initially provided with identical exemplars. Our results show that the quality
of AI-generated resources, as perceived by students, is equivalent to the
quality of resources generated by their peers. This suggests that AI-generated
resources may serve as viable supplementary material in certain contexts.
Resources generated by LLMs tend to closely mirror the given exemplars, whereas
student-generated resources exhibit greater variety in terms of content length
and specific syntax features used. The study highlights the need for further
research exploring different types of learning resources and a broader range of
subject areas, and understanding the long-term impact of AI-generated resources
on learning outcomes.
- Abstract(参考訳): パーソナライズされた学習体験を提供するオンライン学習プラットフォームに移行する学生が増えているため、高品質な教育コンテンツの生産には大きなニーズがある。
大規模言語モデル(llm)は、大規模学習教材の迅速な作成に有望な解決策を提供し、インストラクターの負担を軽減する。
本研究では,学習支援活動の一環として,LLMが生み出す資源の質を学生が生み出すものと比較することにより,導入プログラミングの文脈において学習資源を生み出す可能性を検討した。
盲目評価を用いて、学生はaiとその仲間によって生成されたリソースの正確性と有用性を評価した。
その結果,学生が認識するai生成資源の質は,仲間が生成する資源の質と同等であることがわかった。
これは、AI生成資源が特定の文脈において有効な補助材料として機能する可能性を示唆している。
llmsが生成するリソースは与えられた例に忠実に反映する傾向があるが、学生が生成するリソースは、使用するコンテンツの長さと特定の構文の特徴の点で、より多種多様である。
この研究は、さまざまなタイプの学習リソースと幅広い主題領域を探索し、AI生成リソースが学習結果に長期的な影響を理解することの必要性を強調している。
関連論文リスト
- A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Integrating A.I. in Higher Education: Protocol for a Pilot Study with 'SAMCares: An Adaptive Learning Hub' [0.6990493129893112]
本研究は,「SAMCares」と呼ぶ革新的な研究仲間を紹介することを目的としている。
このシステムは、Large Language Model(LLM)とRetriever-Augmented Generation(RAG)を利用して、リアルタイム、コンテキスト認識、適応的な教育サポートを提供する。
論文 参考訳(メタデータ) (2024-05-01T05:39:07Z) - Cross-Data Knowledge Graph Construction for LLM-enabled Educational Question-Answering System: A Case Study at HCMUT [2.8000537365271367]
大規模言語モデル(LLM)は活発な研究トピックとして現れている。
LLMはイベントの記憶、新しい情報の導入、ドメイン固有の問題や幻覚への対処において課題に直面している。
本稿では,複数のデータソースから知識グラフを自動的に構築する手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T16:34:31Z) - A Knowledge Plug-and-Play Test Bed for Open-domain Dialogue Generation [51.31429493814664]
マルチソース対話知識の選択と応答生成を評価するために,ウィキペディアのマルチソースウィザードというベンチマークを示す。
本稿では,すでに訓練済みの対話モデルを用いて,未確認の情報源からの新たなサポート知識を利用するための新たな課題である対話知識プラグイン・アンド・プレイを提案する。
論文 参考訳(メタデータ) (2024-03-06T06:54:02Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - Prototyping the use of Large Language Models (LLMs) for adult learning
content creation at scale [0.6628807224384127]
本稿では,Large Language Models (LLM) の非同期コース生成における利用について検討する。
LLMを利用したコースプロトタイプを開発し,ロバストなHuman-in-the-loopプロセスを実装した。
最初の発見は、このアプローチを採用することで、正確さや明快さを損なうことなく、コンテンツ作成を高速化できることを示している。
論文 参考訳(メタデータ) (2023-06-02T10:58:05Z) - Multi-source Education Knowledge Graph Construction and Fusion for
College Curricula [3.981835878719391]
本稿では,電子情報分野における知識抽出,視覚的KG構築,グラフ融合のためのフレームワークを提案する。
我々の目標は、学生の学習効率を高め、AIによって実現される新しい教育パラダイムを探求することである。
論文 参考訳(メタデータ) (2023-05-08T09:25:41Z) - Learning To Rank Resources with GNN [7.337247167823921]
本稿では,資源クエリと資源リソースの関係をモデル化可能なグラフニューラルネットワーク(GNN)に基づく学習からランクへのアプローチを提案する。
提案手法は,様々なパフォーマンス指標において,最先端の6.4%から42%を上回っている。
論文 参考訳(メタデータ) (2023-04-17T02:01:45Z) - A Transfer Learning Pipeline for Educational Resource Discovery with
Application in Leading Paragraph Generation [71.92338855383238]
本稿では,新しいドメインに対するWebリソース発見を自動化するパイプラインを提案する。
パイプラインは2つの類似しているが新規なターゲットドメインで評価すると、F1スコアは0.94と0.82となる。
本研究は,サーベイジェネレーションのための各種Webリソースを考察した最初の研究である。
論文 参考訳(メタデータ) (2022-01-07T03:35:40Z) - Personalized Education in the AI Era: What to Expect Next? [76.37000521334585]
パーソナライズ学習の目的は、学習者の強みに合致する効果的な知識獲得トラックをデザインし、目標を達成するために弱みをバイパスすることである。
近年、人工知能(AI)と機械学習(ML)の隆盛は、パーソナライズされた教育を強化するための新しい視点を広げています。
論文 参考訳(メタデータ) (2021-01-19T12:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。