論文の概要: From Interests to Insights: An LLM Approach to Course Recommendations Using Natural Language Queries
- arxiv url: http://arxiv.org/abs/2412.19312v2
- Date: Mon, 30 Dec 2024 15:30:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 12:42:35.470705
- Title: From Interests to Insights: An LLM Approach to Course Recommendations Using Natural Language Queries
- Title(参考訳): 興味から洞察へ:自然言語クエリを用いた講座勧告へのLLMアプローチ
- Authors: Hugh Van Deventer, Mark Mills, August Evrard,
- Abstract要約: 本稿では,新しいLarge Language Model (LLM) コースレコメンデーションシステムについて述べる。
コース記述のコーパスにRAG(Retrieval Augmented Generation)法を適用する。
システムはまず、ユーザのクエリに基づいて「理想」のコース記述を生成する。
この記述は埋め込みを用いて検索ベクトルに変換され、類似したコンテンツを持つ実際のコースを見つけるのに使用される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Most universities in the United States encourage their students to explore academic areas before declaring a major and to acquire academic breadth by satisfying a variety of requirements. Each term, students must choose among many thousands of offerings, spanning dozens of subject areas, a handful of courses to take. The curricular environment is also dynamic, and poor communication and search functions on campus can limit a student's ability to discover new courses of interest. To support both students and their advisers in such a setting, we explore a novel Large Language Model (LLM) course recommendation system that applies a Retrieval Augmented Generation (RAG) method to the corpus of course descriptions. The system first generates an 'ideal' course description based on the user's query. This description is converted into a search vector using embeddings, which is then used to find actual courses with similar content by comparing embedding similarities. We describe the method and assess the quality and fairness of some example prompts. Steps to deploy a pilot system on campus are discussed.
- Abstract(参考訳): 合衆国のほとんどの大学は、学生が専攻を宣言する前に学術分野を探索し、様々な要件を満たすことで学界の広さを得るよう奨励している。
各学期ごとに、学生は数十の科目、少数のコースにまたがる何千ものオファリングの中から選ばなければならない。
カリキュラム環境も動的であり、キャンパスでのコミュニケーションや検索機能が乏しいため、学生が興味を持つ新しいコースを発見できる能力は制限される。
このような状況下で,学生とアドバイザーの双方を支援するために,学習内容のコーパスにRAG法を適用したLarge Language Model(LLM)コースレコメンデーションシステムを提案する。
システムはまず、ユーザのクエリに基づいて「理想」のコース記述を生成する。
この記述は埋め込みを用いて探索ベクトルに変換され、埋め込み類似性を比較することで、類似した内容の実際のコースを見つけるのに使用される。
提案手法を記述し,いくつかの例のプロンプトの品質と公平性を評価する。
パイロットシステムをキャンパスに展開するステップについて論じる。
関連論文リスト
- Generating Situated Reflection Triggers about Alternative Solution Paths: A Case Study of Generative AI for Computer-Supported Collaborative Learning [3.2721068185888127]
本稿では,学生に動的かつ文脈的フィードバックを提供する概念実証アプリケーションを提案する。
具体的には、ChatGPTを使って、大学レベルのクラウドコンピューティングコースのためのオンラインプログラミング演習ボットを拡張します。
LLMは、コンテキスト内で発生する協調的な議論の詳細を組み込んだ、高度に位置決めされたリフレクショントリガを生成するために使用できることを実証する。
論文 参考訳(メタデータ) (2024-04-28T17:56:14Z) - Ruffle&Riley: Insights from Designing and Evaluating a Large Language Model-Based Conversational Tutoring System [21.139850269835858]
会話学習システム(CTS)は、自然言語に基づく対話を通じて学習体験を提供する。
大規模言語モデル(LLM)の最近の進歩を2つの方法で活用する新しいタイプのCTSについて検討・評価する。
このシステムは、授業テキストから容易に編集可能な教育用スクリプトを自動生成することにより、AI支援コンテンツオーサリングを可能にする。
論文 参考訳(メタデータ) (2024-04-26T14:57:55Z) - Analyzing LLM Usage in an Advanced Computing Class in India [4.580708389528142]
本研究では,大規模言語モデル(LLM)を,大学院生や大学院生が高度なコンピューティングクラスにおけるプログラミング課題に活用することを検討した。
インド大学の分散システムクラスから411名の学生を対象に,総合的な分析を行った。
論文 参考訳(メタデータ) (2024-04-06T12:06:56Z) - Exploring How Multiple Levels of GPT-Generated Programming Hints Support or Disappoint Novices [0.0]
本研究は,学生の問題解決と学習を支援するヒントのレベルの違いについて検討した。
LLMヒントファクトリーを用いた12初心者を対象にシンクアップアラウド調査を行った。
ハイレベルな自然言語のヒントだけでは役に立たないか、あるいは誤解を招く可能性があることがわかりました。
論文 参考訳(メタデータ) (2024-04-02T18:05:26Z) - Helping university students to choose elective courses by using a hybrid
multi-criteria recommendation system with genetic optimization [0.0]
本稿では、協調フィルタリング(CF)とコンテンツベースフィルタリング(CBF)を組み合わせたハイブリッドRSを提案する。
遺伝的アルゴリズム(GA)は最適なRS構成を自動的に発見するために開発された。
実験結果から, コース推薦における最も関連性の高い基準について検討した。
論文 参考訳(メタデータ) (2024-02-13T11:02:12Z) - Cache & Distil: Optimising API Calls to Large Language Models [82.32065572907125]
ジェネレーティブAIツールの大規模デプロイは、ユーザクエリをフルフィルするために、LLM(Large Language Model)に対する高価なAPI呼び出しに依存することが多い。
これらの呼び出しの頻度を縮めるために、より小さな言語モデル(学生)を用いることができる。
この学生は、ユーザー要求の増加に独立して対処する能力が徐々に向上する。
論文 参考訳(メタデータ) (2023-10-20T15:01:55Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - Leveraging Language to Learn Program Abstractions and Search Heuristics [66.28391181268645]
LAPS(Language for Abstraction and Program Search)は、自然言語アノテーションを用いて、ライブラリとニューラルネットワークによる合成のための検索モデルの共同学習をガイドする手法である。
最先端のライブラリ学習システム(DreamCoder)に統合されると、LAPSは高品質なライブラリを生成し、検索効率と一般化を改善する。
論文 参考訳(メタデータ) (2021-06-18T15:08:47Z) - Attentional Graph Convolutional Networks for Knowledge Concept
Recommendation in MOOCs in a Heterogeneous View [72.98388321383989]
大規模なオープンオンラインコース(MOOC)は、学生が知識を習得するための大規模かつオープンな学習機会を提供する。
学生の関心を惹きつけるため、MOOCsプロバイダによる推薦制度が採用され、学生にコースを推薦する。
そこで本研究では,MOOCにおける知識概念レコメンデーションのために,Attentional Heterogeneous Graph Convolutional Deep Knowledge Recommender (ACKRec) という,エンドツーエンドのグラフニューラルネットワークに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-23T18:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。