論文の概要: Irec: A Metacognitive Scaffolding for Self-Regulated Learning through Just-in-Time Insight Recall: A Conceptual Framework and System Prototype
- arxiv url: http://arxiv.org/abs/2506.20156v1
- Date: Wed, 25 Jun 2025 06:23:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.619038
- Title: Irec: A Metacognitive Scaffolding for Self-Regulated Learning through Just-in-Time Insight Recall: A Conceptual Framework and System Prototype
- Title(参考訳): Irec: ジャスト・イン・タイム・インサイト・リコールによる自己制御学習のためのメタ認知的共有:概念的フレームワークとシステムプロトタイプ
- Authors: Xuefei Hou, Xizhao Tan,
- Abstract要約: 本稿では,自己制御学習(SRL)を促進するメタ認知的足場として,個人的過去の知見のコンテキストトリガー検索を概念化した新しいパラダイムであるInsight Recallを紹介する。
Irecの中核となるのは、ユーザの学習履歴の動的知識グラフである。
認知負荷を低減するため、IrecはLLMベースの知識グラフ構築のためのHuman-in-the-loopパイプラインを備えている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The core challenge in learning has shifted from knowledge acquisition to effective Self-Regulated Learning (SRL): planning, monitoring, and reflecting on one's learning. Existing digital tools, however, inadequately support metacognitive reflection. Spaced Repetition Systems (SRS) use de-contextualized review, overlooking the role of context, while Personal Knowledge Management (PKM) tools require high manual maintenance. To address these challenges, this paper introduces "Insight Recall," a novel paradigm that conceptualizes the context-triggered retrieval of personal past insights as a metacognitive scaffold to promote SRL. We formalize this paradigm using the Just-in-Time Adaptive Intervention (JITAI) framework and implement a prototype system, Irec, to demonstrate its feasibility. At its core, Irec uses a dynamic knowledge graph of the user's learning history. When a user faces a new problem, a hybrid retrieval engine recalls relevant personal "insights." Subsequently, a large language model (LLM) performs a deep similarity assessment to filter and present the most relevant scaffold in a just-in-time manner. To reduce cognitive load, Irec features a human-in-the-loop pipeline for LLM-based knowledge graph construction. We also propose an optional "Guided Inquiry" module, where users can engage in a Socratic dialogue with an expert LLM, using the current problem and recalled insights as context. The contribution of this paper is a solid theoretical framework and a usable system platform for designing next-generation intelligent learning systems that enhance metacognition and self-regulation.
- Abstract(参考訳): 学習における中核的な課題は、知識獲得から効果的な自己統制学習(SRL)へと移行した: 計画、監視、学習への反映である。
しかし、既存のデジタルツールはメタ認知反射を不十分にサポートしている。
スペースド・リピーション・システム(SRS)は文脈の役割を見渡すために非コンテキスト化されたレビューを使用し、PKM(Personal Knowledge Management)ツールは高い手作業によるメンテナンスを必要とする。
これらの課題に対処するために,SRLを促進するメタ認知的足場として,個人的過去の知見のコンテキストトリガー検索を概念化した新しいパラダイムであるInsight Recallを紹介した。
我々は、Just-in-Time Adaptive Intervention(JITAI)フレームワークを使用してこのパラダイムを形式化し、プロトタイプシステムIrecを実装し、その実現可能性を示す。
Irecの中核となるのは、ユーザの学習履歴の動的知識グラフである。
ユーザが新しい問題に直面したとき、ハイブリッド検索エンジンは、関連する個人的「監視」をリコールする。
その後、大規模言語モデル(LLM)がフィルタと深い類似性評価を行い、ジャスト・イン・タイムで最も関連性の高い足場を提示する。
認知負荷を低減するため、IrecはLLMベースの知識グラフ構築のためのHuman-in-the-loopパイプラインを備えている。
また,このモジュールを使用すれば,ソクラテス的な対話を専門家のLSMと行うことが可能であり,現状の問題を利用して,洞察をコンテキストとして呼び起こすことができる。
本稿では,メタ認知と自己制御を高める次世代知能学習システムを設計するための,しっかりとした理論的枠組みと有用なシステムプラットフォームについて述べる。
関連論文リスト
- KAG-Thinker: Interactive Thinking and Deep Reasoning in LLMs via Knowledge-Augmented Generation [18.765025274967932]
我々は、KAG-Thinkerを導入し、KAGをマルチターン対話型思考と、専用パラメータライト大言語モデル(LLM)を利用した深い推論フレームワークにアップグレードする。
提案手法は,複雑な問題を解くための構造化思考プロセスを構築し,推論過程の論理的一貫性と文脈的整合性を高める。
論文 参考訳(メタデータ) (2025-06-21T14:58:53Z) - Socratic RL: A Novel Framework for Efficient Knowledge Acquisition through Iterative Reflection and Viewpoint Distillation [0.0]
現在の強化学習(RL)手法は、単純で結果に基づく報酬信号に依存している。
本稿では,この制限に対処する新しいプロセス指向フレームワークであるソクラティック強化学習(Socratic Reinforcement Learning, Socratic-RL)を紹介する。
このフレームワークでは、分離された"Teacher-Student"アーキテクチャを使用して、"Teacher AI"がインタラクション履歴を分析し、因果的な洞察を抽出し、それらを構造化された"ビューポイント"に定式化する。
論文 参考訳(メタデータ) (2025-06-16T10:57:58Z) - Re-ranking Reasoning Context with Tree Search Makes Large Vision-Language Models Stronger [51.01841635655944]
大規模視覚言語モデル(LVLM)の最近の進歩は、視覚質問応答(VQA)タスクのパフォーマンスを著しく改善している。
既存の手法は、推論例による知識の不足や、抽出された知識からの不規則な応答など、依然として課題に直面している。
我々は、Reasoning Context-enriched knowledge baseとTree Search re-level methodを構築し、LVLMを強化したRCTSと呼ばれるマルチモーダルRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-09T14:00:57Z) - Graph Retrieval-Augmented LLM for Conversational Recommendation Systems [52.35491420330534]
G-CRS(Graph Retrieval-Augmented Large Language Model for Conversational Recommender Systems)は、グラフ検索強化世代とテキスト内学習を組み合わせた学習自由フレームワークである。
G-CRSは、タスク固有のトレーニングを必要とせず、既存の手法よりも優れたレコメンデーション性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T03:56:22Z) - Composite Learning Units: Generalized Learning Beyond Parameter Updates to Transform LLMs into Adaptive Reasoners [0.0]
連続学習が可能な学習者へ推論器を変換する複合学習ユニット(CLU)を導入する。
CLUは、動的知識リポジトリの保守と進化を可能にするアーキテクチャ上に構築されている。
我々は暗号推論タスクを通じてCLUの有効性を実証し、フィードバックを通じて理解を継続的に進化させ、隠れた変換規則を明らかにする。
論文 参考訳(メタデータ) (2024-10-09T02:27:58Z) - HGOT: Hierarchical Graph of Thoughts for Retrieval-Augmented In-Context Learning in Factuality Evaluation [20.178644251662316]
本稿では,文脈内学習における関連する文節の検索を促進するために,階層的思考グラフ(HGOT)を導入する。
このフレームワークは、複雑なクエリを管理可能なサブクエリに分割する、分割/クエリ戦略を採用している。
それは、最近提案された引用リコールと精度の指標を取り入れた、回答の選択のための自己一貫性の過半数投票を洗練する。
論文 参考訳(メタデータ) (2024-02-14T18:41:19Z) - Representation Learning with Large Language Models for Recommendation [33.040389989173825]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。