論文の概要: Self-Regulated Reading with AI Support: An Eight-Week Study with Students
- arxiv url: http://arxiv.org/abs/2602.09907v1
- Date: Tue, 10 Feb 2026 15:41:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.653298
- Title: Self-Regulated Reading with AI Support: An Eight-Week Study with Students
- Title(参考訳): AIサポートによる自己統制型読書 - 学生を対象とした8週間の学習
- Authors: Yue Fu, Joel Wester, Niels Van Berkel, Alexis Hiniker,
- Abstract要約: 8週間の縦断調査を15名の大学生を対象に実施した。
239件の読解セッションで838件のプロンプトを収集し,4つの認知テーマに分類した。
学生は理解から推論への自然な認知的進歩を示したが、この進歩は途絶えた。
認知的エンゲージメントを足場としたAI読解システムの設計について論じる。
- 参考スコア(独自算出の注目度): 25.51074215957502
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: College students increasingly use AI chatbots to support academic reading, yet we lack granular understanding of how these interactions shape their reading experience and cognitive engagement. We conducted an eight-week longitudinal study with 15 undergraduates who used AI to support assigned readings in a course. We collected 838 prompts across 239 reading sessions and developed a coding schema categorizing prompts into four cognitive themes: Decoding, Comprehension, Reasoning, and Metacognition. Comprehension prompts dominated (59.6%), with Reasoning (29.8%), Metacognition (8.5%), and Decoding (2.1%) less frequent. Most sessions (72%) contained exactly three prompts, the required minimum of the reading assignment. Within sessions, students showed natural cognitive progression from comprehension toward reasoning, but this progression was truncated. Across eight weeks, students' engagement patterns remained stable, with substantial individual differences persisting throughout. Qualitative analysis revealed an intention-behavior gap: students recognized that effective prompting required effort but rarely applied this knowledge, with efficiency emerging as the primary driver. Students also strategically triaged their engagement based on interest and academic pressures, exhibiting a novel pattern of reading through AI rather than with it: using AI-generated summaries as primary material to filter which sections merited deeper attention. We discuss design implications for AI reading systems that scaffold sustained cognitive engagement.
- Abstract(参考訳): 大学生は、AIチャットボットを使って学術的な読書を支援していますが、これらのインタラクションがどのように読書経験や認知的エンゲージメントを形作るのか、詳細な理解はありませんでした。
8週間の縦断調査を15名の大学生を対象に実施した。
239の読書セッションで838のプロンプトを収集し、プロンプトをDecoding、Comprehension、Reasoning、Metacognitionの4つのテーマに分類するコーディングスキーマを開発した。
理解のプロンプトは59.6%、推論(29.8%)、メタ認知(8.5%)、復号(2.1%)が少なかった。
ほとんどのセッション(72%)は正確に3つのプロンプトが含まれており、読み出しの最低限は必要だった。
セッション中、学生は理解から推論への自然な認知的進歩を示したが、この進歩は途絶えた。
8週間にわたって、学生のエンゲージメントパターンは安定し続け、個人差はかなり続いた。
学生は、効果的な努力を促すが、この知識を応用することは滅多になく、効率が第一のドライバーとして現れることを認識した。
学生はまた、興味と学術的なプレッシャーに基づいて、彼らのエンゲージメントを戦略的にトリガーし、AIによって生成されたサマリーを主要な素材として使用し、どのセクションがより深い注意を払っているかをフィルタリングする、という、AIによる新たな読書パターンを示した。
認知的エンゲージメントを足場としたAI読解システムの設計について論じる。
関連論文リスト
- Do Students Rely on AI? Analysis of Student-ChatGPT Conversations from a Field Study [10.71612026319996]
本研究は,各種STEMコースにおける簡単なクイズベースシナリオにおける315人の学生とAIの会話を分析した。
学生は全体としてAIへの依存度が低く、多くの学生は学習にAIを効果的に利用できなかった。
特定の行動メトリクスは、AIへの依存を強く予測し、AIの採用を説明する潜在的な行動メカニズムを強調します。
論文 参考訳(メタデータ) (2025-08-27T20:00:27Z) - ChatGPT produces more "lazy" thinkers: Evidence of cognitive engagement decline [0.0]
本研究では,生成型人工知能(AI)ツールが学術書記作業における学生の認知活動に与える影響について検討した。
その結果,ChatGPT群ではコントロール群に比べて認知エンゲージメントスコアが有意に低かった。
これらの結果は、AI支援が認知的オフロードにつながる可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-06-30T18:41:50Z) - Supporting Students' Reading and Cognition with AI [12.029238454394445]
私たちは124セッションのテキストをAIツールで分析し、ユーザの読書プロセスと認知的エンゲージメントを理解しました。
我々は、低レベルの認知タスクのための構造化足場を含む、将来のAI読解支援システムの設計意味について提案する。
私たちは、学生やインストラクターがAIで読書体験をカスタマイズできる適応的で人間的なループ機能を提案しています。
論文 参考訳(メタデータ) (2025-04-07T17:51:27Z) - MindScape Study: Integrating LLM and Behavioral Sensing for Personalized AI-Driven Journaling Experiences [6.120545056775202]
MindScapeは受動的に収集された行動パターンを統合することで、AIによるジャーナリングの新しいアプローチを開拓した。
この統合は、高度にパーソナライズされ、コンテキスト対応のジャーナリングエクスペリエンスを生み出します。
大学生20名を対象に8週間の探索的研究を行い,MindScapeアプリの有効性を実証した。
論文 参考訳(メタデータ) (2024-09-15T01:10:46Z) - Experimental Evidence on Negative Impact of Generative AI on Scientific
Learning Outcomes [0.0]
AIを要約に使用することで、品質と出力の両方が大幅に改善された。
読書のトピックと優れた読み書きスキルに強い背景を持つ人は、最も有益であった。
論文 参考訳(メタデータ) (2023-09-23T21:59:40Z) - Learning to Prompt in the Classroom to Understand AI Limits: A pilot
study [35.06607166918901]
大規模言語モデル(LLM)と、ChatGPTのような派生したチャットボットは、AIシステムの自然言語処理能力を大幅に改善した。
しかし、AI手法が顕著な貢献を示しているにもかかわらず、興奮は否定的な感情を引き起こしている。
パイロット教育は21人の生徒を抱えた高校で実施された。
論文 参考訳(メタデータ) (2023-07-04T07:51:37Z) - PromptRobust: Towards Evaluating the Robustness of Large Language Models on Adversarial Prompts [76.18347405302728]
本研究は、文字、単語、文、意味といった複数のレベルにわたるプロンプトを標的とした、敵対的なテキスト攻撃を多用する。
相手のプロンプトは、感情分析、自然言語推論、読書理解、機械翻訳、数学の問題解決など様々なタスクに使用される。
以上の結果から,現代の大規模言語モデルでは,敵対的プロンプトに対して頑健ではないことが示唆された。
論文 参考訳(メタデータ) (2023-06-07T15:37:00Z) - HALMA: Humanlike Abstraction Learning Meets Affordance in Rapid Problem
Solving [104.79156980475686]
人間は自然主義的タスクの構造に応じて構成的および因果的抽象化、つまり知識を学ぶ。
エージェントがその知識をどのように表現するかには、知覚、概念、アルゴリズムの3段階の一般化がある、と我々は主張する。
このベンチマークは、ビジュアルコンセプト開発と迅速な問題解決のための新しいタスクドメイン、HALMAを中心にしています。
論文 参考訳(メタデータ) (2021-02-22T20:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。