論文の概要: Learning Context: A Unified Framework and Roadmap for Context-Aware AI in Education
- arxiv url: http://arxiv.org/abs/2512.24362v1
- Date: Tue, 30 Dec 2025 17:15:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.442156
- Title: Learning Context: A Unified Framework and Roadmap for Context-Aware AI in Education
- Title(参考訳): 学習コンテキスト: 教育におけるコンテキスト認識AIのための統一フレームワークとロードマップ
- Authors: Naiming Liu, Brittany Bradford, Johaun Hatchett, Gabriel Diaz, Lorenzo Luzi, Zichao Wang, Debshila Basu Mallick, Richard Baraniuk,
- Abstract要約: そこで我々は,AIを基盤とした学習環境を,コンテキストブレンドの模倣から学習者の原理的,全体的理解に移行するための統合学習コンテキストフレームワークを提案する。
この白書は、教育・学習システムにコンテキスト対応を持たせるための複数の学際的なロードマップを提供する。
- 参考スコア(独自算出の注目度): 3.713127608803299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a unified Learning Context (LC) framework designed to transition AI-based education from context-blind mimicry to a principled, holistic understanding of the learner. This white paper provides a multidisciplinary roadmap for making teaching and learning systems context-aware by encoding cognitive, affective, and sociocultural factors over the short, medium, and long term. To realize this vision, we outline concrete steps to operationalize LC theory into an interoperable computational data structure. By leveraging the Model Context Protocol (MCP), we will enable a wide range of AI tools to "warm-start" with durable context and achieve continual, long-term personalization. Finally, we detail our particular LC implementation strategy through the OpenStax digital learning platform ecosystem and SafeInsights R&D infrastructure. Using OpenStax's national reach, we are embedding the LC into authentic educational settings to support millions of learners. All research and pedagogical interventions are conducted within SafeInsights' privacy-preserving data enclaves, ensuring a privacy-first implementation that maintains high ethical standards while reducing equity gaps nationwide.
- Abstract(参考訳): 我々は,AIに基づく教育を,文脈書の模倣から学習者の原理的,包括的理解に移行するための統合学習コンテキスト(LC)フレームワークを導入する。
この白書は,短期・中・長期にわたる認知・情緒・社会文化的要因をコード化することで,教育・学習システムに文脈認識を持たせるための多分野的なロードマップを提供する。
このビジョンを実現するために、LC理論を相互運用可能な計算データ構造に運用するための具体的な手順を概説する。
Model Context Protocol(MCP)を利用することで、幅広いAIツールが耐久性のあるコンテキストで"ウォームスタート"し、継続的な長期的なパーソナライゼーションを実現することができます。
最後に、OpenStaxデジタル学習プラットフォームエコシステムとSafeInsights R&Dインフラストラクチャを通じて、LC実装戦略について詳述する。
OpenStaxの全国的リーチを利用して、何百万人もの学習者を支援するために、LCを真の教育環境に組み込んでいます。
すべての研究と教育的な介入は、SafeInsightsのプライバシー保護データエンクレーブ内で行われ、高い倫理基準を維持しながら、全国の株式格差を減らし、プライバシー優先の実装が保証される。
関連論文リスト
- Generative Large Language Models for Knowledge Representation: A Systematic Review of Concept Map Generation [1.163826615891678]
生成型大規模言語モデル(LLM)の台頭により,概念地図による知識表現を自動化する新たな機会が開かれた。
本総説では, LLM を用いた概念マップ生成に関する新たな研究の体系化について述べる。
人間のループシステム、弱い教師付き学習モデル、微調整されたドメイン固有LLM、素早いエンジニアリングによる事前訓練されたLLM、知識ベースを統合するハイブリッドシステム、シンボルと統計ツールを組み合わせたモジュラーフレームワークである。
論文 参考訳(メタデータ) (2025-09-18T02:36:54Z) - OpenUnlearning: Accelerating LLM Unlearning via Unified Benchmarking of Methods and Metrics [82.0813150432867]
我々は,大規模言語モデル(LLM)のアンラーニング手法とメトリクスをベンチマークするための標準フレームワークであるOpenUnlearningを紹介する。
OpenUnlearningは、13のアンラーニングアルゴリズムと16のさまざまな評価を3つの主要なベンチマークで統合する。
また、多様なアンラーニング手法をベンチマークし、広範囲な評価スイートとの比較分析を行う。
論文 参考訳(メタデータ) (2025-06-14T20:16:37Z) - The Synergy of LLMs & RL Unlocks Offline Learning of Generalizable Language-Conditioned Policies with Low-fidelity Data [50.544186914115045]
TEDUOは、シンボリック環境におけるオフライン言語条件のポリシー学習のための、新しいトレーニングパイプラインである。
まず、オフラインデータセットをよりリッチなアノテーションで拡張する自動化ツールとして、次に、一般化可能な命令フォローエージェントとして使用します。
論文 参考訳(メタデータ) (2024-12-09T18:43:56Z) - Enhancing Instructional Quality: Leveraging Computer-Assisted Textual
Analysis to Generate In-Depth Insights from Educational Artifacts [13.617709093240231]
本研究では、人工知能(AI)と機械学習(ML)が教育内容、教師の談話、学生の反応を分析して教育改善を促進する方法について検討する。
私たちは、教師のコーチング、学生のサポート、コンテンツ開発など、AI/ML統合が大きな利点をもたらす重要な領域を特定します。
本稿では,AI/ML技術と教育的目標との整合性の重要性を強調し,その教育的可能性を実現する。
論文 参考訳(メタデータ) (2024-03-06T18:29:18Z) - Towards an Information Theoretic Framework of Context-Based Offline Meta-Reinforcement Learning [48.79569442193824]
我々は,COMRLアルゴリズムが,タスク変数$M$と,その潜在表現$Z$の相互情報目的を,様々な近似境界を実装して最適化していることを示す。
実演として、$I(Z; M)$の教師付きおよび自己教師型実装を提案し、対応する最適化アルゴリズムがRLベンチマークの幅広いスペクトルにわたって顕著な一般化を示すことを実証的に示す。
本研究は,COMRL法の情報理論基盤を構築し,強化学習の文脈におけるタスク表現学習の理解を深める。
論文 参考訳(メタデータ) (2024-02-04T09:58:42Z) - A Survey to Recent Progress Towards Understanding In-Context Learning [37.933016939520684]
In-Context Learning (ICL) は、プロンプトで提供されるいくつかの例から学ぶことができる大規模言語モデル(LLM)を強化する。
実証的な成功にもかかわらず、ICLの根底にあるメカニズムはいまだ不明である。
論文 参考訳(メタデータ) (2024-02-03T17:13:03Z) - Building Trust in Conversational AI: A Comprehensive Review and Solution
Architecture for Explainable, Privacy-Aware Systems using LLMs and Knowledge
Graph [0.33554367023486936]
我々は150以上の大規模言語モデル(LLM)の詳細なレビューを提供する包括的ツールを紹介する。
本稿では,LLMの言語機能と知識グラフの構造的ダイナミクスをシームレスに統合する機能的アーキテクチャを提案する。
我々のアーキテクチャは言語学の洗練と実情の厳密さを巧みにブレンドし、ロールベースアクセス制御によるデータセキュリティをさらに強化する。
論文 参考訳(メタデータ) (2023-08-13T22:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。