論文の概要: Lightweight Prompt Engineering for Cognitive Alignment in Educational AI: A OneClickQuiz Case Study
- arxiv url: http://arxiv.org/abs/2510.03374v1
- Date: Fri, 03 Oct 2025 12:42:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:58.944288
- Title: Lightweight Prompt Engineering for Cognitive Alignment in Educational AI: A OneClickQuiz Case Study
- Title(参考訳): 教育用AIにおける認知アライメントのための軽量プロンプトエンジニアリング : OneClickQuizケーススタディ
- Authors: Antoun Yaacoub, Zainab Assaghir, Jérôme Da-Rugna,
- Abstract要約: 本稿では,OneClickQuizにおけるAI生成質問の認知的アライメントに及ぼす軽量なプロンプトエンジニアリング戦略の影響について検討する。
ブルームの分類学の知識,応用,分析の3つの段階(詳細なベースライン,よりシンプルなバージョン,ペルソナに基づくアプローチ・アクロスアプローチ)を評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid integration of Artificial Intelligence (AI) into educational technology promises to revolutionize content creation and assessment. However, the quality and pedagogical alignment of AI-generated content remain critical challenges. This paper investigates the impact of lightweight prompt engineering strategies on the cognitive alignment of AI-generated questions within OneClickQuiz, a Moodle plugin leveraging generative AI. We evaluate three prompt variants-a detailed baseline, a simpler version, and a persona-based approach-across Knowledge, Application, and Analysis levels of Bloom's Taxonomy. Utilizing an automated classification model (from prior work) and human review, our findings demonstrate that explicit, detailed prompts are crucial for precise cognitive alignment. While simpler and persona-based prompts yield clear and relevant questions, they frequently misalign with intended Bloom's levels, generating outputs that are either too complex or deviate from the desired cognitive objective. This study underscores the importance of strategic prompt engineering in fostering pedagogically sound AI-driven educational solutions and advises on optimizing AI for quality content generation in learning analytics and smart learning environments.
- Abstract(参考訳): 人工知能(AI)の教育技術への迅速な統合は、コンテンツ作成とアセスメントに革命をもたらすことを約束している。
しかし、AI生成コンテンツの品質と教育的アライメントは依然として重要な課題である。
本稿では、生成AIを活用したMoodleプラグインOneClickQuizにおけるAI生成質問の認知アライメントに及ぼす軽量なプロンプトエンジニアリング戦略の影響について検討する。
我々は,ブルームの分類学の知識,応用,分析の3つの指標として,詳細なベースライン,よりシンプルなバージョン,ペルソナに基づくアプローチアクロスアプローチの評価を行った。
自動分類モデル(先行作業から)と人的レビューを用いることで、明確で詳細なプロンプトが正確な認知的アライメントに不可欠であることを示す。
単純でペルソナに基づくプロンプトは明確で関連する質問をもたらすが、意図されたブルームのレベルと誤認されることがしばしばあり、複雑すぎるか、望ましい認知目標から逸脱するアウトプットを生成する。
この研究は、AI駆動型教育ソリューションを教育的に健全に育成する上で、戦略的に迅速なエンジニアリングの重要性を強調し、学習分析とスマート学習環境における品質コンテンツ生成のためのAIの最適化に助言する。
関連論文リスト
- Deploying AI for Signal Processing education: Selected challenges and intriguing opportunities [44.18936398140735]
記事は、教育の促進と強化のためのAIツールの使用について考察している。
プライマーは、AIを教育環境で使用する際に生じるいくつかの技術的な問題について提供されている。
この記事は、AIのエンジニアリング教育における役割を前進させようとする研究者や教育者のためのリソースとして機能する。
論文 参考訳(メタデータ) (2025-09-10T19:19:26Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - Human-in-the-Loop Systems for Adaptive Learning Using Generative AI [0.6780998887296331]
学生主導のフィードバックループは、AIが生成した応答を修正して、学生の保持とエンゲージメントを改善する。
STEM学生による研究から得られた予備的な知見は、従来のAIツールと比較して学習結果と信頼性が向上したことを示している。
論文 参考訳(メタデータ) (2025-08-14T20:44:34Z) - Assessing the Quality of AI-Generated Exams: A Large-Scale Field Study [18.104664166381877]
大規模言語モデル(LLM)は、従来の教育と学習の方法に挑戦する。
有望な応用の1つは、特定のコースの内容に合わせてカスタマイズされた試験の生成である。
論文 参考訳(メタデータ) (2025-08-09T01:20:53Z) - Methodological Foundations for AI-Driven Survey Question Generation [41.94295877935867]
本稿では,ジェネレーティブAIを教育調査に活用するための方法論的枠組みを提案する。
大規模言語モデルが適応的でコンテキスト対応のサーベイ質問を生成する方法について検討する。
偏見、プライバシー、透明性などの倫理的問題を考察する。
論文 参考訳(メタデータ) (2025-05-02T09:50:34Z) - Enhancing AI-Driven Education: Integrating Cognitive Frameworks, Linguistic Feedback Analysis, and Ethical Considerations for Improved Content Generation [0.0]
本稿では,4つの関連研究から洞察を合成し,AI駆動型教育ツールの強化のための包括的枠組みを提案する。
我々は、認知アセスメントフレームワーク、AI生成フィードバックの言語分析、倫理設計原則を統合し、効果的で責任のあるAIツールの開発を指導する。
論文 参考訳(メタデータ) (2025-05-01T06:36:21Z) - Beyond Detection: Designing AI-Resilient Assessments with Automated Feedback Tool to Foster Critical Thinking [0.0]
本研究は, 検出ではなく, 評価設計に基づく能動的AIレジリエントソリューションを提案する。
WebベースのPythonツールで、Bloomの分類と高度な自然言語処理技術を統合する。
これは、タスクがリコールや要約のような下位の思考や、分析、評価、作成といった上位のスキルを目標にしているかどうかを教育者が判断するのに役立つ。
論文 参考訳(メタデータ) (2025-03-30T23:13:00Z) - Do great minds think alike? Investigating Human-AI Complementarity in Question Answering with CAIMIRA [43.116608441891096]
人間は知識に基づく帰納的、概念的推論においてAIシステムより優れています。
GPT-4やLLaMAのような最先端のLLMは、ターゲット情報検索において優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-09T03:53:26Z) - Toward enriched Cognitive Learning with XAI [44.99833362998488]
本稿では,人工知能(AI)ツールによる認知学習のためのインテリジェントシステム(CL-XAI)を提案する。
CL-XAIの使用は、学習者が問題解決スキルを高めるために問題に取り組むゲームインスパイアされた仮想ユースケースで説明される。
論文 参考訳(メタデータ) (2023-12-19T16:13:47Z) - Artificial Intelligence-Enabled Intelligent Assistant for Personalized
and Adaptive Learning in Higher Education [0.2812395851874055]
本稿では,AIIA(Artificial Intelligence-Enabled Intelligent Assistant)という,高等教育におけるパーソナライズおよび適応学習のための新しいフレームワークを提案する。
AIIAシステムは、高度なAIと自然言語処理(NLP)技術を活用して、対話的で魅力的な学習プラットフォームを構築する。
論文 参考訳(メタデータ) (2023-09-19T19:31:15Z) - Learning to Prompt in the Classroom to Understand AI Limits: A pilot
study [35.06607166918901]
大規模言語モデル(LLM)と、ChatGPTのような派生したチャットボットは、AIシステムの自然言語処理能力を大幅に改善した。
しかし、AI手法が顕著な貢献を示しているにもかかわらず、興奮は否定的な感情を引き起こしている。
パイロット教育は21人の生徒を抱えた高校で実施された。
論文 参考訳(メタデータ) (2023-07-04T07:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。