論文の概要: Bridging LMS and Generative AI: Dynamic Course Content Integration (DCCI) for Connecting LLMs to Course Content -- The Ask ME Assistant
- arxiv url: http://arxiv.org/abs/2504.03966v1
- Date: Fri, 04 Apr 2025 22:17:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:15:52.530921
- Title: Bridging LMS and Generative AI: Dynamic Course Content Integration (DCCI) for Connecting LLMs to Course Content -- The Ask ME Assistant
- Title(参考訳): LMSとジェネレーティブAIのブリッジ: LLMをコースコンテンツに接続するための動的コースコンテンツ統合(DCCI) -- Ask MEアシスタント
- Authors: Kovan Mzwri, Márta Turcsányi-Szabo,
- Abstract要約: 本研究では, Canvas LMS から学習内容とカリキュラムを動的に検索・統合する動的コースコンテンツ統合 (DCCI) 機構を LLM を利用したアシスタント Ask ME に導入する。
パイロットスタディの結果は、Ask MEのタイムリーかつ文脈的に関連する回答を、管理的およびコース関連の質問に対して提供する能力を認識した、高いユーザ満足度(4.614/5)を示している。
学生の大多数は、Ask MEとCanvas LMSのコースコンテンツの統合がプラットフォームスイッチングを減らし、ユーザビリティ、エンゲージメント、理解を改善したことに同意した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The integration of Large Language Models (LLMs) with Learning Management Systems (LMSs) has the potential to enhance task automation and accessibility in education. However, hallucination where LLMs generate inaccurate or misleading information remains a significant challenge. This study introduces the Dynamic Course Content Integration (DCCI) mechanism, which dynamically retrieves and integrates course content and curriculum from Canvas LMS into the LLM-powered assistant, Ask ME. By employing prompt engineering to structure retrieved content within the LLM's context window, DCCI ensures accuracy, relevance, and contextual alignment, mitigating hallucination. To evaluate DCCI's effectiveness, Ask ME's usability, and broader student perceptions of AI in education, a mixed-methods approach was employed, incorporating user satisfaction ratings and a structured survey. Results from a pilot study indicate high user satisfaction (4.614/5), with students recognizing Ask ME's ability to provide timely and contextually relevant responses for both administrative and course-related inquiries. Additionally, a majority of students agreed that Ask ME's integration with course content in Canvas LMS reduced platform-switching, improving usability, engagement, and comprehension. AI's role in reducing classroom hesitation and fostering self-directed learning and intellectual curiosity was also highlighted. Despite these benefits and positive perception of AI tools, concerns emerged regarding over-reliance on AI, accuracy limitations, and ethical issues such as plagiarism and reduced student-teacher interaction. These findings emphasize the need for strategic AI implementation, ethical safeguards, and a pedagogical framework that prioritizes human-AI collaboration over substitution.
- Abstract(参考訳): 大規模言語モデル(LLM)と学習管理システム(LMS)の統合は、教育におけるタスクの自動化とアクセシビリティを高める可能性がある。
しかし、LLMが不正確な情報や誤った情報を生成する幻覚は依然として重要な課題である。
本研究では, Canvas LMS から学習内容とカリキュラムを動的に検索・統合する動的コースコンテンツ統合 (DCCI) 機構を LLM を利用したアシスタント Ask ME に導入する。
LLMのコンテキストウィンドウ内で検索されたコンテンツを構成するために即時エンジニアリングを利用することで、DCCIは精度、関連性、コンテキストアライメントを確保し、幻覚を緩和する。
DCCIの有効性、Ask MEのユーザビリティ、および教育におけるAIに対する幅広い学生の認識を評価するために、ユーザ満足度評価と構造化された調査を取り入れた混合手法のアプローチが採用された。
パイロットスタディの結果は、Ask MEのタイムリーかつ文脈的に関連する回答を、管理的およびコース関連の質問に対して提供する能力を認識した、高いユーザ満足度(4.614/5)を示している。
さらに、学生の大多数は、Ask MEとCanvas LMSのコースコンテンツの統合がプラットフォームスイッチングを減らし、ユーザビリティ、エンゲージメント、理解を改善したことに同意した。
教室の迷路を減らし、自己指向的な学習と知的好奇心を育むAIの役割も強調された。
これらの利点とAIツールに対する肯定的な認識にもかかわらず、AIへの過度な信頼、精度の制限、盗作主義や学生と教師の相互作用の減少といった倫理的問題に関する懸念が浮上した。
これらの知見は、戦略的AIの実装、倫理的保護、置換よりも人間とAIのコラボレーションを優先する教育的枠組みの必要性を強調している。
関連論文リスト
- An Empirical Exploration of ChatGPT's Ability to Support Problem Formulation Tasks for Mission Engineering and a Documentation of its Performance Variability [0.0]
本稿では,大規模言語モデル(LLM)の品質と整合性について考察する。
我々は、関連する参照問題、NASAの宇宙ミッション設計課題を特定し、ChatGPT-3.5のステークホルダ識別タスクの実行能力を文書化する。
LLMは人間の利害関係者の識別には有効であるが, 外部システムや環境要因の認識には不十分であることがわかった。
論文 参考訳(メタデータ) (2025-02-05T17:58:23Z) - How Good is ChatGPT in Giving Adaptive Guidance Using Knowledge Graphs in E-Learning Environments? [0.8999666725996978]
本研究では,動的知識グラフを大規模言語モデル (LLM) と統合し,学習者を支援する手法を提案する。
この手法の中心は、学生がトピックの前提条件を理解する上での知識グラフの役割である。
予備的な知見から, 学生はこの連携支援の恩恵を受け, 理解の向上と課題成果の向上が期待できる。
論文 参考訳(メタデータ) (2024-12-05T04:05:43Z) - Exploring Knowledge Boundaries in Large Language Models for Retrieval Judgment [56.87031484108484]
大規模言語モデル(LLM)は、その実践的応用でますます認識されている。
Retrieval-Augmented Generation (RAG)はこの課題に取り組み、LLMに大きな影響を与えている。
中立あるいは有害な結果をもたらす検索要求を最小化することにより、時間と計算コストの両方を効果的に削減できる。
論文 参考訳(メタデータ) (2024-11-09T15:12:28Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - FATE in MMLA: A Student-Centred Exploration of Fairness, Accountability,
Transparency, and Ethics in Multimodal Learning Analytics [0.0]
本研究は,MMLAビジュアライゼーションを用いて,学生の公正さ,説明責任,透明性,倫理(FATE)を評価した。
発見は、視覚的公正性を保証するために、正確で包括的なデータ表現の重要性を強調した。
学生は倫理的配慮の重要性も強調し、FATE問題を積極的に調査し対処するためにLAとMMLAのコミュニティに圧力をかける必要性を強調している。
論文 参考訳(メタデータ) (2024-02-29T11:52:06Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Visual AI and Linguistic Intelligence Through Steerability and
Composability [0.0]
本研究では,言語と視覚を統合した多段階課題に対処する上で,LLM(Multimodal large language model)の機能について検討する。
この研究は、AI Lego DesigningからAI Satellite Image Analysisまで、創造的で建設的に多様な14のタスクを提示する。
論文 参考訳(メタデータ) (2023-11-18T22:01:33Z) - Search-in-the-Chain: Interactively Enhancing Large Language Models with
Search for Knowledge-intensive Tasks [121.74957524305283]
本稿では、情報検索(IR)とLarge Language Model(LLM)のインタラクションのための、textbfSearch-in-the-Chain(SearChain)という新しいフレームワークを提案する。
実験の結果、SearChainは複雑な知識集約タスクにおける最先端のベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-28T10:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。