論文の概要: CoDAE: Adapting Large Language Models for Education via Chain-of-Thought Data Augmentation
- arxiv url: http://arxiv.org/abs/2508.08386v1
- Date: Mon, 11 Aug 2025 18:13:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.206749
- Title: CoDAE: Adapting Large Language Models for Education via Chain-of-Thought Data Augmentation
- Title(参考訳): CoDAE:Chain-of-Thoughtデータ拡張による大規模言語モデルの教育適応
- Authors: Shuzhou Yuan, William LaCroix, Hardik Ghoshal, Ercong Nie, Michael Färber,
- Abstract要約: 大規模言語モデル(LLM)は、スケーラビリティとパーソナライズされた命令の可能性のため、AIチューターとしてますます採用されている。
我々は、Chain-of-Thoughtデータ拡張を通じてLLMを教育用途に適用するフレームワークであるCoDAEを紹介する。
学生とChatGPTをベースとした教師との現実世界の対話を収集し,CoTを駆使して,ステップバイステップの推論と教育的に整合した指導を促進する。
- 参考スコア(独自算出の注目度): 8.901227918730562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly employed as AI tutors due to their scalability and potential for personalized instruction. However, off-the-shelf LLMs often underperform in educational settings: they frequently reveal answers too readily, fail to adapt their responses to student uncertainty, and remain vulnerable to emotionally manipulative prompts. To address these challenges, we introduce CoDAE, a framework that adapts LLMs for educational use through Chain-of-Thought (CoT) data augmentation. We collect real-world dialogues between students and a ChatGPT-based tutor and enrich them using CoT prompting to promote step-by-step reasoning and pedagogically aligned guidance. Furthermore, we design targeted dialogue cases to explicitly mitigate three key limitations: over-compliance, low response adaptivity, and threat vulnerability. We fine-tune four open-source LLMs on different variants of the augmented datasets and evaluate them in simulated educational scenarios using both automatic metrics and LLM-as-a-judge assessments. Our results show that models fine-tuned with CoDAE deliver more pedagogically appropriate guidance, better support reasoning processes, and effectively resist premature answer disclosure.
- Abstract(参考訳): 大規模言語モデル(LLM)は、スケーラビリティとパーソナライズされた命令の可能性のため、AIチューターとしてますます採用されている。
しかし、既成のLLMは、しばしば教育環境では性能が劣り、答えがあまりにも簡単すぎること、学生の不確実性に反応しないこと、感情的に操作的なプロンプトに弱いままである。
これらの課題に対処するため,我々は,CoT(Chain-of-Thought)データ拡張を通じてLLMを教育用に適用するフレームワークであるCoDAEを紹介した。
学生とChatGPTをベースとした教師との現実世界の対話を収集し,CoTを駆使して,ステップバイステップの推論と教育的に整合した指導を促進する。
さらに、過度なコンプライアンス、低応答適応性、脅威脆弱性という3つの重要な制約を明示的に緩和するために、ターゲットの対話ケースを設計する。
拡張データセットの異なる変種について4つのオープンソースLCMを微調整し、自動メトリクスとLCM-as-a-judgeアセスメントの両方を用いて、シミュレーションされた教育シナリオで評価する。
以上の結果から,CoDAEを微調整したモデルでは,より教育的に適切なガイダンスが得られ,推論プロセスのサポートが向上し,早期回答の開示に効果的に抵抗できることが示唆された。
関連論文リスト
- UCO: A Multi-Turn Interactive Reinforcement Learning Method for Adaptive Teaching with Large Language Models [59.693733170193944]
大規模言語モデル(LLM)は、教育環境において、回答提供者からインテリジェントな家庭教師へとシフトしている。
最近の強化学習アプローチはこの制限に対処するが、2つの重要な課題に直面している。
これらの課題に対処するために一方向認知最適化法(UCO)を提案する。
論文 参考訳(メタデータ) (2025-11-12T01:27:02Z) - CLASS-IT: Conversational and Lecture-Aligned Small-Scale Instruction Tuning for BabyLMs [81.79228604962687]
本研究は,小規模のLMが命令チューニングの恩恵を受けることができるかどうかを考察する。
我々は,統合的・逐次的なカリキュラムに適用された対話型および質問応答型指導調律データセットを比較した。
その結果、命令チューニングは微調整のシナリオでは小さくても一貫した利得をもたらすことが示され、逐次キュリキュラはマージされたデータより優れていた。
しかし、改良はゼロショットタスクに一貫して移行するわけではなく、相互作用中心の適応と広範な言語一般化とのトレードオフを示唆している。
論文 参考訳(メタデータ) (2025-10-29T10:36:39Z) - Rethinking Visual Intelligence: Insights from Video Pretraining [75.32388528274224]
大規模言語モデル(LLM)は、大規模事前学習によってシステムが新しい問題に迅速に適応できることを実証している。
本稿では,映像拡散モデル(VDM)をギャップを埋めるための有望な方向として検討する。
論文 参考訳(メタデータ) (2025-10-28T14:12:11Z) - TeachLM: Post-Training LLMs for Education Using Authentic Learning Data [4.600044635815686]
TeachLMは、パラメータ効率の良い最先端モデルの微調整を用いた教育に最適化された大きな言語モデルである。
パラメータ効率のよい微調整を用いて,高忠実度合成学生と教師の対話を生成できる真正な学生モデルを構築する。
本評価は,学習データの微調整が会話や教育のパフォーマンスを著しく向上させることを示す。
論文 参考訳(メタデータ) (2025-10-06T17:55:04Z) - Teaching Language Models To Gather Information Proactively [53.85419549904644]
大規模言語モデル(LLM)は、ますます協力的なパートナーとして機能することが期待されている。
本研究では,アクティブな情報収集という新たなタスクパラダイムを導入する。
キー情報をマスキングする、部分的に特定された現実世界のタスクを生成するスケーラブルなフレームワークを設計する。
このセットアップの中核となるイノベーションは、真に新しい暗黙のユーザー情報を引き出す質問に報酬を与える、強化された微調整戦略です。
論文 参考訳(メタデータ) (2025-07-28T23:50:09Z) - TACO: Think-Answer Consistency for Optimized Long-Chain Reasoning and Efficient Data Learning via Reinforcement Learning in LVLMs [50.820065021136024]
DeepSeek R1には、大規模言語モデル(LLM)のためのかなり高度な複雑な推論がある。
最近の手法は、R1の推論能力をマルチモーダルな設定で再現しようと試みている。
視覚推論のための新しい強化学習アルゴリズムTACOを提案する。
論文 参考訳(メタデータ) (2025-05-27T06:30:48Z) - From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning [76.09281171131941]
大規模言語モデル(LLM)は教育を変換することができるが、直接質問応答のための最適化はしばしば効果的な教育を損なう。
オンライン強化学習(RL)に基づくアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T15:00:07Z) - Alignment Drift in CEFR-prompted LLMs for Interactive Spanish Tutoring [0.0]
本稿では,第二言語学習における適応型チューターとしてのLarge Language Models(LLMs)の可能性について検討する。
スペイン語の教師と学生の対話を,7Bから12Bまでの大きさの命令調整型オープンソースのLLMを用いてシミュレートした。
次に、チューターモデルからの出力を用いて、3つの習熟度レベルにわたるテキストの難易度を制御するCEFRベースのプロンプトの有効性を評価する。
論文 参考訳(メタデータ) (2025-05-13T08:50:57Z) - From Reviews to Dialogues: Active Synthesis for Zero-Shot LLM-based Conversational Recommender System [49.57258257916805]
大きな言語モデル(LLM)は強力なゼロショットレコメンデーション機能を示している。
現実的なアプリケーションは、スケーラビリティ、解釈可能性、データプライバシの制約により、より小さく、内部的に管理された推奨モデルを好むことが多い。
能動学習技術によって導かれるブラックボックスLSMを利用して,会話学習データを合成する能動データ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-21T23:05:47Z) - Can Large Language Models Match Tutoring System Adaptivity? A Benchmarking Study [0.0]
大規模言語モデル(LLM)は動的命令補助として約束を守る。
しかし、LLMが知的チューリングシステム(ITS)の適応性を再現できるかどうかは不明である。
論文 参考訳(メタデータ) (2025-04-07T23:57:32Z) - Supervised Fine-Tuning LLMs to Behave as Pedagogical Agents in Programming Education [41.69192181482715]
本稿では,プログラミング教育のための微調整型大規模言語モデル(LLM)である GuideLM の開発について述べる。
GuideLM は LLM を利用した教育用 C コンパイラ C コンパイラ (DCC) に統合され,音声による誤り説明を生成する。
基礎となるOpenAIモデルと比較し,各モデル毎の400応答の専門的分析を行った。
その結果, GuideLM と GuideLM-mini は, GPT-4o と比較して, ソクラテス的指導の8%, 語学経済の58%が向上した。
論文 参考訳(メタデータ) (2025-02-27T21:23:56Z) - Teaching Models to Improve on Tape [30.330699770714165]
大きな言語モデル(LLM)は、特定の制約の下でコンテンツを生成するよう促されたときにしばしば苦労する。
最近の研究によると、LLMはそのような「修正的フィードバック」の恩恵を受けることができる。
本稿では,そのような報酬をモデルに教えるためのRLフレームワークを紹介し,その制約を満たす能力に応じてモデルに報酬を与える。
論文 参考訳(メタデータ) (2024-11-03T08:49:55Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - Soft Prompting for Unlearning in Large Language Models [11.504012974208466]
この研究は、データ保護規制を動機とした大規模言語モデルのための機械学習の研究に焦点をあてる。
我々はtextbfUntextbflearning (SPUL) のための textbfSoft textbfPrompting フレームワークを提案する。
本研究では,提案手法の厳密な評価を行い,SPULが実用性と忘れとのトレードオフを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2024-06-17T19:11:40Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。