論文の概要: COGENT: A Curriculum-oriented Framework for Generating Grade-appropriate Educational Content
- arxiv url: http://arxiv.org/abs/2506.09367v1
- Date: Wed, 11 Jun 2025 03:27:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.300749
- Title: COGENT: A Curriculum-oriented Framework for Generating Grade-appropriate Educational Content
- Title(参考訳): 教育コンテンツ作成のためのカリキュラム指向フレームワークCOGENT
- Authors: Zhengyuan Liu, Stella Xin Yin, Dion Hoe-Lian Goh, Nancy F. Chen,
- Abstract要約: COGENTは、カリキュラム指向の教育コンテンツを生成するためのフレームワークである。
3つのカリキュラムコンポーネント(科学概念、コアアイデア、学習目標)を組み込んでいます。
我々は、長さ、語彙、文の複雑さを通じて可読性を制御する。
- 参考スコア(独自算出の注目度): 35.360208404408496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Generative AI has demonstrated strong potential and versatility in content generation, its application to educational contexts presents several challenges. Models often fail to align with curriculum standards and maintain grade-appropriate reading levels consistently. Furthermore, STEM education poses additional challenges in balancing scientific explanations with everyday language when introducing complex and abstract ideas and phenomena to younger students. In this work, we propose COGENT, a curriculum-oriented framework for generating grade-appropriate educational content. We incorporate three curriculum components (science concepts, core ideas, and learning objectives), control readability through length, vocabulary, and sentence complexity, and adopt a ``wonder-based'' approach to increase student engagement and interest. We conduct a multi-dimensional evaluation via both LLM-as-a-judge and human expert analysis. Experimental results show that COGENT consistently produces grade-appropriate passages that are comparable or superior to human references. Our work establishes a viable approach for scaling adaptive and high-quality learning resources.
- Abstract(参考訳): Generative AIはコンテンツ生成において強力な可能性と汎用性を示してきたが、その教育的コンテキストへの応用にはいくつかの課題がある。
モデルは、しばしばカリキュラム標準と整合し、一貫した適度な読解レベルを維持するのに失敗する。
さらに、STEM教育は、若者に複雑で抽象的な概念や現象を導入する際に、科学的説明と日常言語とのバランスをとる上で、さらなる課題をもたらす。
本研究では,カリキュラム指向の教育コンテンツ作成フレームワークであるCOGENTを提案する。
我々は,3つのカリキュラムコンポーネント(科学概念,中核概念,学習目標)を取り入れ,長さ,語彙,文の複雑さを通じて可読性を制御するとともに,学生のエンゲージメントと関心を高めるために,‘wonder-based’アプローチを採用する。
LLM-as-a-judgeと人的専門家分析の両方を用いて多次元評価を行う。
実験結果から、COGENTは人間の参照に匹敵する、あるいは優越する適度なパスを一貫して生成していることが明らかとなった。
私たちの研究は、適応性と高品質な学習リソースをスケールするための実行可能なアプローチを確立します。
関連論文リスト
- A Structured Unplugged Approach for Foundational AI Literacy in Primary Education [7.495145157323768]
小学校における基礎的AIリテラシーを育成する構造的教育手法を提案する。
以上の結果から,用語理解と利用,特徴記述,論理的推論,評価能力の向上が示唆された。
このアプローチは、特に学生がAIの概念と現実世界の推論を結びつける活動を楽しんでいることを証明した。
論文 参考訳(メタデータ) (2025-05-27T16:23:57Z) - Stay Hungry, Stay Foolish: On the Extended Reading Articles Generation with LLMs [3.2962799070467432]
本研究では,Large Language Models (LLMs) の可能性を探究し,教材作成の合理化を図る。
TED-Ed Dig Deeperセクションを最初の探索として使用し、補足的記事が文脈知識によってどのように豊かになるかを検討する。
実験により,本モデルが高品質なコンテンツと正確なコース提案を生成することを示す。
論文 参考訳(メタデータ) (2025-04-21T10:35:48Z) - Form-Substance Discrimination: Concept, Cognition, and Pedagogy [55.2480439325792]
本稿では,高等教育におけるカリキュラム開発に欠かせない学習成果として,フォーム・サブスタンス・差別について検討する。
本稿では,カリキュラム設計,評価実践,明示的な指導を通じて,この能力を育成するための実践的戦略を提案する。
論文 参考訳(メタデータ) (2025-04-01T04:15:56Z) - Science Out of Its Ivory Tower: Improving Accessibility with Reinforcement Learning [15.03718014789799]
言語モデルを微調整して、学術的な抽象語をより理解しやすいバージョンに書き換える強化学習フレームワークを導入する。
我々の最良のモデルは、学者抽象学の可読性レベルを、およそ6つの米国学級レベルに調整する。
我々は,学術研究と一般大衆のギャップを埋めるための一歩として,この研究を構想する。
論文 参考訳(メタデータ) (2024-10-22T15:14:54Z) - Systematic Task Exploration with LLMs: A Study in Citation Text Generation [63.50597360948099]
大規模言語モデル(LLM)は、複雑な創造的自然言語生成(NLG)タスクの定義と実行において、前例のない柔軟性をもたらす。
本稿では,系統的な入力操作,参照データ,出力測定からなる3成分研究フレームワークを提案する。
我々はこのフレームワークを用いて引用テキスト生成を探索する。これは一般的なNLPタスクであり、タスク定義と評価基準に関するコンセンサスを欠いている。
論文 参考訳(メタデータ) (2024-07-04T16:41:08Z) - Understanding the Progression of Educational Topics via Semantic Matching [0.9246281666115259]
教育システムは、技術進歩、工業的、社会的ニーズに適応し、学生の学習行動を強化するために、動的に変化している。
カリキュラムスペシャリストや教育者は、学年ごとの教科を常に改訂し、ギャップを特定し、新しい学習トピックを導入し、学習結果を強化する。
データセット内に構築された主題、トピック、学習結果に関する微妙なデータを持つことで、データサイエンスを活用して、さまざまな学習トピックの進捗をよりよく理解することが可能になる。
論文 参考訳(メタデータ) (2024-02-10T08:24:29Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - Heterogeneous Representation Learning: A Review [66.12816399765296]
不均一表現学習(HRL)には、いくつかの独特な課題がある。
異種入力を用いて既存の学習環境をモデル化可能な統合学習フレームワークを提案する。
HRLでは触れられていない課題と今後の研究方向性を強調します。
論文 参考訳(メタデータ) (2020-04-28T05:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。