論文の概要: LLM-Driven Personalized Answer Generation and Evaluation
- arxiv url: http://arxiv.org/abs/2506.10829v1
- Date: Thu, 12 Jun 2025 15:46:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.8216
- Title: LLM-Driven Personalized Answer Generation and Evaluation
- Title(参考訳): LLM駆動型パーソナライズアンサーの生成と評価
- Authors: Mohammadreza Molavi, Mohammadreza Tavakoli, Mohammad Moein, Abdolali Faraji, Gábor Kismihók,
- Abstract要約: 個人学習者のニーズに適応したパーソナライゼーションは,学習経験の向上に不可欠である。
本稿では,学習者の質問に対するパーソナライズされた回答を生成するために,LLM(Large Language Models)の可能性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online learning has experienced rapid growth due to its flexibility and accessibility. Personalization, adapted to the needs of individual learners, is crucial for enhancing the learning experience, particularly in online settings. A key aspect of personalization is providing learners with answers customized to their specific questions. This paper therefore explores the potential of Large Language Models (LLMs) to generate personalized answers to learners' questions, thereby enhancing engagement and reducing the workload on educators. To evaluate the effectiveness of LLMs in this context, we conducted a comprehensive study using the StackExchange platform in two distinct areas: language learning and programming. We developed a framework and a dataset for validating automatically generated personalized answers. Subsequently, we generated personalized answers using different strategies, including 0-shot, 1-shot, and few-shot scenarios. The generated answers were evaluated using three methods: 1. BERTScore, 2. LLM evaluation, and 3. human evaluation. Our findings indicated that providing LLMs with examples of desired answers (from the learner or similar learners) can significantly enhance the LLMs' ability to tailor responses to individual learners' needs.
- Abstract(参考訳): オンライン学習は、柔軟性とアクセシビリティによって急速に成長した。
個人学習者のニーズに適応したパーソナライゼーションは、特にオンライン環境での学習体験の向上に不可欠である。
パーソナライゼーションの重要な側面は、学習者に特定の質問にカスタマイズされた回答を提供することである。
そこで本稿では,Large Language Models (LLMs) が学習者の質問に対してパーソナライズされた回答を生成できる可能性を探る。
この文脈でLLMの有効性を評価するために,StackExchangeプラットフォームを用いて,言語学習とプログラミングの2つの分野で総合的な研究を行った。
自動生成されたパーソナライズされた回答を検証するためのフレームワークとデータセットを開発した。
その後、0ショット、1ショット、数ショットのシナリオなど、さまざまな戦略を用いてパーソナライズされた回答を生成しました。
生成した回答は3つの方法を用いて評価した。
1.BERTScore
2 LLM の評価、及び
3. 人間の評価。
その結果,学習者や類似学習者からの所望の回答の例をLLMに提供することで,学習者のニーズに応じた回答の調整能力を大幅に向上できることがわかった。
関連論文リスト
- Can Large Language Models Match Tutoring System Adaptivity? A Benchmarking Study [0.0]
大規模言語モデル(LLM)は動的命令補助として約束を守る。
しかし、LLMが知的チューリングシステム(ITS)の適応性を再現できるかどうかは不明である。
論文 参考訳(メタデータ) (2025-04-07T23:57:32Z) - Position: LLMs Can be Good Tutors in Foreign Language Education [87.88557755407815]
我々は、外国語教育(FLE)において、大きな言語モデル(LLM)が効果的な家庭教師として機能する可能性を主張する。
具体的には、(1)データエンハンサーとして、(2)学習教材の作成や学生シミュレーションとして、(2)タスク予測器として、学習者の評価や学習経路の最適化に、(3)エージェントとして、そして、パーソナライズされた包括的教育を可能にする3つの重要な役割を果たせる。
論文 参考訳(メタデータ) (2025-02-08T06:48:49Z) - Automated Assignment Grading with Large Language Models: Insights From a Bioinformatics Course [0.0]
自然言語処理と大規模言語モデル(LLM)は、パーソナライズされたフィードバックの効率的な配信を可能にすることで、有望なソリューションを提供する。
自然言語処理と大規模言語モデル(LLM)の最近の進歩は、パーソナライズされたフィードバックの効率的な配信を可能にすることによって、有望なソリューションを提供する。
提案手法により,LLMは人間の評価値に匹敵する評価精度とフィードバック品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2025-01-24T13:59:14Z) - TutorLLM: Customizing Learning Recommendations with Knowledge Tracing and Retrieval-Augmented Generation [44.18659233932457]
TutorLLMは、知識追跡(KT)と検索補助生成(RAG)に基づくパーソナライズされた学習推薦システムである。
TutorLLMの斬新さは、コンテキスト固有の知識の動的検索を可能にする、KTとRAGの技法とLLMのユニークな組み合わせにある。
評価には、ユーザアセスメントのアンケートとパフォーマンス指標が含まれ、ユーザの満足度が10%向上したことを示す。
論文 参考訳(メタデータ) (2025-01-20T21:18:43Z) - LOVA3: Learning to Visual Question Answering, Asking and Assessment [61.51687164769517]
質問への回答、質問、評価は、世界を理解し、知識を得るのに不可欠な3つの人間の特性である。
現在のMLLM(Multimodal Large Language Models)は主に質問応答に焦点を当てており、質問や評価スキルの可能性を無視することが多い。
LOVA3は、"Learning tO Visual Question Answering, Asking and Assessment"と名付けられた革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-05-23T18:21:59Z) - KIWI: A Dataset of Knowledge-Intensive Writing Instructions for
Answering Research Questions [63.307317584926146]
ユーザ命令に従うように適応された大規模言語モデル(LLM)は、現在では会話エージェントとして広くデプロイされている。
そこで本研究では,より一般的な命令追従タスクとして,長文の回答作成を支援することを提案する。
我々は、科学領域における知識集約的な記述命令のデータセットKIWIを構築した。
論文 参考訳(メタデータ) (2024-03-06T17:16:44Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。