論文の概要: Towards Pedagogical LLMs with Supervised Fine Tuning for Computing Education
- arxiv url: http://arxiv.org/abs/2411.01765v1
- Date: Mon, 04 Nov 2024 03:20:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:47:57.944055
- Title: Towards Pedagogical LLMs with Supervised Fine Tuning for Computing Education
- Title(参考訳): コンピュータ教育のためのファインチューニング型教育用LLMを目指して
- Authors: Alexandra Vassar, Jake Renzella, Emily Ross, Andrew Taylor,
- Abstract要約: 本稿では,大規模言語モデル(LLM)の教師付き微調整について検討し,コンピュータ教育における教育的アライメントを改善する。
このプロジェクトは、プログラミングコースのフォーラムから2500の高品質な質問/回答のペアのプロプライエタリなデータセットを利用した。
- 参考スコア(独自算出の注目度): 44.17741997623522
- License:
- Abstract: This paper investigates supervised fine-tuning of large language models (LLMs) to improve their pedagogical alignment in computing education, addressing concerns that LLMs may hinder learning outcomes. The project utilised a proprietary dataset of 2,500 high quality question/answer pairs from programming course forums, and explores two research questions: the suitability of university course forums in contributing to fine-tuning datasets, and how supervised fine-tuning can improve LLMs' alignment with educational principles such as constructivism. Initial findings suggest benefits in pedagogical alignment of LLMs, with deeper evaluations required.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)の教師付き微調整を行い,コンピュータ教育における教育的整合性の向上を図る。
このプロジェクトは、プログラミングコースフォーラムから2500の高品質な質問/回答ペアのプロプライエタリなデータセットを利用し、微調整データセットに貢献する大学コースフォーラムの適合性と、構成主義などの教育原則とのLCMの整合性をいかに改善するかという2つの研究課題を探求した。
最初の発見は、LLMの教育的アライメントの利点を示唆し、より深い評価が必要であった。
関連論文リスト
- Developing a Tutoring Dialog Dataset to Optimize LLMs for Educational Use [1.2277343096128712]
大規模言語モデル(LLM)は、スケーラブルな教育アプリケーションへの期待を示している。
本研究は,読解問題における1対1の指導に,より小型で手頃なLPMを用いることを検討した。
論文 参考訳(メタデータ) (2024-10-25T00:40:21Z) - A Little Help Goes a Long Way: Efficient LLM Training by Leveraging Small LMs [74.35290684163718]
大規模言語モデル(LLM)開発における最大の課題は、その面倒な事前トレーニングコストである。
本稿では,小言語モデル(SLM)を活用して,LLMの事前学習効率と品質を改善するための有望なパラダイムについて検討する。
論文 参考訳(メタデータ) (2024-10-24T14:31:52Z) - Evaluating Language Models for Generating and Judging Programming Feedback [4.743413681603463]
大規模言語モデル(LLM)は、幅広い分野の研究と実践を変革してきた。
我々は,オープンソースのLCMのプログラミング課題に対する高品質なフィードバック生成における効率性を評価する。
論文 参考訳(メタデータ) (2024-07-05T21:44:11Z) - The Life Cycle of Large Language Models: A Review of Biases in Education [3.8757867335422485]
大規模言語モデル(LLM)は、学生や教師にパーソナライズされたサポートを提供するために、教育の文脈でますます採用されている。
教育技術におけるLLMの統合は、教育的不平等を悪化させる可能性のあるアルゴリズムバイアスに対して、新たな懸念を抱いている。
本論は,LLMアプリケーションにおける偏見の複雑な性質を明らかにすることを目的として,その評価のための実践的ガイダンスを提供する。
論文 参考訳(メタデータ) (2024-06-03T18:00:28Z) - Rethinking the Roles of Large Language Models in Chinese Grammatical
Error Correction [62.409807640887834]
中国語の文法的誤り訂正(CGEC)は、入力文中のすべての文法的誤りを修正することを目的としている。
CGECの修正器としてのLLMの性能は、課題の焦点が難しいため不満足なままである。
CGECタスクにおけるLCMの役割を再考し、CGECでよりよく活用し、探索できるようにした。
論文 参考訳(メタデータ) (2024-02-18T01:40:34Z) - Pedagogical Alignment of Large Language Models [24.427653091950994]
大規模言語モデル(LLM)は、問題解決プロセスを通じて生徒を導くのではなく、即座に答えを提供する。
本稿では,このアライメント目的を達成するために,LHP(Learning from Human Preferences)アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2024-02-07T16:15:59Z) - Reflection-Tuning: Data Recycling Improves LLM Instruction-Tuning [79.32236399694077]
トレーニングセットの低品質データは、通常、チューニングのチューニングに有害である。
我々は「反射チューニング」と呼ばれる新しい手法を提案する。
このアプローチでは、オラクルLSMを使用して、データ内の命令や応答の質を検査し、向上することで、元のトレーニングデータをリサイクルする。
論文 参考訳(メタデータ) (2023-10-18T05:13:47Z) - Impact of Guidance and Interaction Strategies for LLM Use on Learner Performance and Perception [19.335003380399527]
大規模言語モデル(LLM)は、その教育的有用性を探求する研究の増加とともに、有望な道を提供する。
本研究は,LLM支援学習環境の形成において,教師が果たす役割を強調した。
論文 参考訳(メタデータ) (2023-10-13T01:21:52Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。