論文の概要: Beyond Search Engines: Can Large Language Models Improve Curriculum Development?
- arxiv url: http://arxiv.org/abs/2412.07422v1
- Date: Tue, 10 Dec 2024 11:21:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:38:18.676779
- Title: Beyond Search Engines: Can Large Language Models Improve Curriculum Development?
- Title(参考訳): 検索エンジンを超えて:大規模言語モデルはカリキュラム開発を改善するか?
- Authors: Mohammad Moein, Mohammadreza Molavi Hajiagha, Abdolali Faraji, Mohammadreza Tavakoli, Gàbor Kismihòk,
- Abstract要約: GPT-4は、BERTScoreの観点からYouTubeビデオプレイリストから抽出したトピックよりも、所定のコースに対してより正確なトピックを生成することができる。
以上の結果から, GPT-4 は YouTube ビデオプレイリストから BERTScore から抽出したトピックよりも, 与えられたコースに対してより正確なトピックを生成できることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: While Online Learning is growing and becoming widespread, the associated curricula often suffer from a lack of coverage and outdated content. In this regard, a key question is how to dynamically define the topics that must be covered to thoroughly learn a subject (e.g., a course). Large Language Models (LLMs) are considered candidates that can be used to address curriculum development challenges. Therefore, we developed a framework and a novel dataset, built on YouTube, to evaluate LLMs' performance when it comes to generating learning topics for specific courses. The experiment was conducted across over 100 courses and nearly 7,000 YouTube playlists in various subject areas. Our results indicate that GPT-4 can produce more accurate topics for the given courses than extracted topics from YouTube video playlists in terms of BERTScore
- Abstract(参考訳): オンライン学習が普及し、普及している一方で、関連するカリキュラムは、カバレッジの欠如と時代遅れのコンテンツに悩まされることが多い。
この点に関して重要な疑問は、対象(例えばコース)を徹底的に学習するためにカバーしなければならないトピックを動的に定義する方法である。
LLM(Large Language Models)は、カリキュラム開発問題に対処するために使用できる候補と考えられている。
そこで我々は,特定の科目における学習トピックの生成に関して,LLMのパフォーマンスを評価するためのフレームワークと,YouTube上に構築された新しいデータセットを開発した。
この実験は、さまざまな分野の100以上のコースと7000近いYouTubeプレイリストで実施された。
以上の結果から, GPT-4は, BERTScoreによるYouTubeビデオプレイリストから抽出したトピックよりも, 与えられたコースに対してより正確なトピックを生成できることが示唆された。
関連論文リスト
- Practitioners' Discussions on Building LLM-based Applications for Production [6.544757635738911]
大規模言語モデル(LLM)を積極的に開発する実践者から,2022年から2024年までの189本のビデオを収集した。
BERTopicを用いてテキストの解析を行い, 生成したトピックをテーマに手作業でソート, マージし, 8つのテーマで合計20のトピックを抽出した。
最も一般的なトピックは、検索強化世代(RAG)システムに重点を置いて、デザイン・アンド・アーキテクチャ(英語版)というテーマに含まれる。
論文 参考訳(メタデータ) (2024-11-13T12:44:41Z) - Cross-Data Knowledge Graph Construction for LLM-enabled Educational Question-Answering System: A Case Study at HCMUT [2.8000537365271367]
大規模言語モデル(LLM)は活発な研究トピックとして現れている。
LLMはイベントの記憶、新しい情報の導入、ドメイン固有の問題や幻覚への対処において課題に直面している。
本稿では,複数のデータソースから知識グラフを自動的に構築する手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T16:34:31Z) - Video as the New Language for Real-World Decision Making [100.68643056416394]
ビデオデータは、言語で表現しにくい物理世界に関する重要な情報をキャプチャする。
ビデオは、インターネットの知識を吸収し、多様なタスクを表現できる統一インターフェースとして機能する。
ロボット工学、自動運転、科学といった分野における大きなインパクトの機会を特定します。
論文 参考訳(メタデータ) (2024-02-27T02:05:29Z) - Language Models as Science Tutors [79.73256703631492]
本研究では,LMの現実的なユーザビリティを科学的アシスタントとして測定するTutorEvalとTutorChatを紹介する。
既存の対話データセットを用いた微調整ベースモデルがTutorEvalの性能を低下させることを示す。
我々はTutorChatを用いて、7Bパラメータと34Bパラメータを持つLlemmaモデルを微調整する。これらのLMチューターは32Kのコンテキストウィンドウを持ち、GSM8KとMATHに強く依存しながらTutorEvalで優れている。
論文 参考訳(メタデータ) (2024-02-16T22:24:13Z) - Language Models are Universal Embedders [48.12992614723464]
事前学習されたトランスフォーマーデコーダは、限定的な英語データに基づいて微調整された場合、普遍的に埋め込み可能であることを示す。
我々のモデルは、最小限のトレーニングデータにより、異なる埋め込みタスクにおける競争性能を達成する。
これらの結果は、強力な統合インバータを構築するための有望な道の証となる。
論文 参考訳(メタデータ) (2023-10-12T11:25:46Z) - Unsupervised Audio-Visual Lecture Segmentation [31.29084124332193]
AVLecturesは,STEMを対象とする2,350以上の講義を対象とする86のコースからなるデータセットである。
第2のコントリビューションは,ビデオ講義セグメンテーションの導入である。
我々はこれらの表現を用いて時間的に一貫した1-アネレスト隣のアルゴリズムTW-FINCHを用いてセグメントを生成する。
論文 参考訳(メタデータ) (2022-10-29T16:26:34Z) - QVHighlights: Detecting Moments and Highlights in Videos via Natural
Language Queries [89.24431389933703]
Query-based Video Highlights (QVHighlights) データセットを提示する。
これは1万本以上のYouTubeビデオで構成され、幅広いトピックをカバーしている。
データセット内の各ビデオには、(1)人書き自由形式のNLクエリ、(2)クエリに関するビデオw.r.t.の関連モーメント、(3)クエリに関連するすべてのクリップに対する5ポイントスケールのサリエンシスコアが注釈付けされている。
論文 参考訳(メタデータ) (2021-07-20T16:42:58Z) - VLEngagement: A Dataset of Scientific Video Lectures for Evaluating
Population-based Engagement [23.078055803229912]
ビデオ講義は、現在のデジタル時代の大衆に知識を与える主要なモダリティの1つとなっている。
科学ビデオ講義における学習者の関与を理解することを目的としたデータと研究は依然として重要なニーズである。
本稿では,VLEngagementについて紹介する。VLEngagementは,公開科学ビデオ講義から抽出したコンテンツベースおよびビデオ特有の特徴からなる,新しいデータセットである。
論文 参考訳(メタデータ) (2020-11-02T14:20:19Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Video Captioning with Guidance of Multimodal Latent Topics [123.5255241103578]
我々は、データから教師なしの方法でマルチモーダルトピックをマイニングする統合キャプションフレームワークM&M TGMを提案する。
事前に定義されたトピックと比較して、マイニングされたマルチモーダルトピックはより意味的に、視覚的に一貫性がある。
MSR-VTTとYoutube2Textのデータセットを用いた大規模な実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2017-08-31T11:18:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。