論文の概要: From Answer Givers to Design Mentors: Guiding LLMs with the Cognitive Apprenticeship Model
- arxiv url: http://arxiv.org/abs/2601.19053v1
- Date: Tue, 27 Jan 2026 00:27:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.102501
- Title: From Answer Givers to Design Mentors: Guiding LLMs with the Cognitive Apprenticeship Model
- Title(参考訳): 回答からデザインメンターへ:認知的承認モデルによるLCMの指導
- Authors: Yongsu Ahn, Lejun R Liao, Benjamin Bach, Nam Wook Kim,
- Abstract要約: 大きな言語モデル(LLM)は設計作業をサポートするが、しばしば反射的エンゲージメントを制限する汎用的なワンオフ提案を提供する。
我々は6つの方法による推論の実証を強調する認知認証モデルを適用した。
我々は,これらの指導手法を構造化的プロンプトを通して運用し,データ視覚化実践者による対象内調査で評価する。
- 参考スコア(独自算出の注目度): 15.804452611205454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Design feedback helps practitioners improve their artifacts while also fostering reflection and design reasoning. Large Language Models (LLMs) such as ChatGPT can support design work, but often provide generic, one-off suggestions that limit reflective engagement. We investigate how to guide LLMs to act as design mentors by applying the Cognitive Apprenticeship Model, which emphasizes demonstrating reasoning through six methods: modeling, coaching, scaffolding, articulation, reflection, and exploration. We operationalize these instructional methods through structured prompting and evaluate them in a within-subjects study with data visualization practitioners. Participants interacted with both a baseline LLM and an instructional LLM designed with cognitive apprenticeship prompts. Surveys, interviews, and conversational log analyses compared experiences across conditions. Our findings show that cognitively informed prompts elicit deeper design reasoning and more reflective feedback exchanges, though the baseline is sometimes preferred depending on task types or experience levels. We distill design considerations for AI-assisted feedback systems that foster reflective practice.
- Abstract(参考訳): 設計フィードバックは、実践者がアーティファクトを改善するのに役立つと同時に、リフレクションと設計の推論を促進する。
ChatGPTのような大規模言語モデル(LLM)は設計作業をサポートするが、しばしば反射的エンゲージメントを制限する汎用的なワンオフ提案を提供する。
我々は,モデル,コーチング,足場,調音,反射,探索の6つの手法による推論の実証を強調する認知能力モデルを適用し,LLMを設計メンターとして機能させる方法について検討する。
我々は,これらの指導手法を構造化的プロンプトを通して運用し,データ視覚化実践者による対象内調査で評価する。
参加者は、ベースライン LLM と、認知的見習いのプロンプトで設計された教育用 LLM の両方と相互作用した。
調査、インタビュー、会話ログ分析は、条件をまたいだ経験を比較した。
以上の結果から,認知的インフォームドプロンプトは,タスクタイプや経験レベルに応じて,より深い設計推論や,より振り返り的なフィードバック交換を促すことが示唆された。
反射的実践を促進するAI支援フィードバックシステムの設計考察を精査する。
関連論文リスト
- Owlgorithm: Supporting Self-Regulated Learning in Competitive Programming through LLM-Driven Reflection [0.0]
競争プログラミング(CP)における自己統制学習(SRL)を支援する教育プラットフォームを提案する。
Owlgorithmは、個々の学生の提出に合わせた、文脈対応のメタプロンプトを生成する。
学生評価とTAフィードバックを探索的に評価した結果,有望なメリットと顕著な制限が認められた。
論文 参考訳(メタデータ) (2025-11-13T05:08:45Z) - Listening with Language Models: Using LLMs to Collect and Interpret Classroom Feedback [14.83267437400996]
大規模言語モデル(LLM)を利用したチャットボットは、学生に反射的で会話的な対話をさせ、教室のフィードバックプロセスを再現することができる。
以上の結果から, LLMに基づくフィードバックシステムは, 標準的な調査ツールと比較して, より豊かな洞察, 文脈的関連性, エンゲージメントを提供する可能性が示唆された。
論文 参考訳(メタデータ) (2025-08-13T22:53:55Z) - Automated Feedback on Student-Generated UML and ER Diagrams Using Large Language Models [39.58317527488534]
LLMツールのプロトタイプであるDUET(Diamatic & ER Tutor)を紹介する。
参照ダイアグラムと学生が提出したダイアグラムをテキスト表現に変換し、違いに基づいて構造化されたフィードバックを提供する。
多段階のLCMパイプラインを使用して図を比較し、反射フィードバックを生成する。
自己指導型学習を奨励し、指導戦略を伝えることを目的として、教育者の分析的な洞察を可能にする。
論文 参考訳(メタデータ) (2025-07-31T11:49:01Z) - Meta-Reflection: A Feedback-Free Reflection Learning Framework [57.14485943991588]
外部からのフィードバックを伴わずに単一の推論パスのみを必要とするフィードバックフリーリフレクション機構であるメタリフレクションを提案する。
過去のリフレクションを記憶し、取り出す人間の能力によって、メタリフレクションはコードブックに反射的な洞察を統合する。
実世界のシナリオにおけるメタリフレクションの実践性を徹底的に検討し,評価するために,E-Commerce Customer Intent Detectionという産業eコマースベンチマークを導入する。
論文 参考訳(メタデータ) (2024-12-18T12:20:04Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Enhancing LLM-Based Feedback: Insights from Intelligent Tutoring Systems and the Learning Sciences [0.0]
この研究は、ITSのフィードバック生成に関する以前の研究を通し、AIEDの研究を慎重に支援するものである。
本論文の主な貢献は次のとおりである。 生成AIの時代におけるフィードバック生成において、より慎重で理論的に基礎付けられた手法を適用すること。
論文 参考訳(メタデータ) (2024-05-07T20:09:18Z) - ProSwitch: Knowledge-Guided Instruction Tuning to Switch Between Professional and Non-Professional Responses [56.949741308866535]
大規模言語モデル (LLM) は様々な言語応用において有効であることを示す。
本研究では,プロと非プロの回答を言語モデルで切り替える,ProSwitchという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-14T06:49:16Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。