論文の概要: LittleMu: Deploying an Online Virtual Teaching Assistant via
Heterogeneous Sources Integration and Chain of Teach Prompts
- arxiv url: http://arxiv.org/abs/2308.05935v1
- Date: Fri, 11 Aug 2023 04:36:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 15:03:53.135741
- Title: LittleMu: Deploying an Online Virtual Teaching Assistant via
Heterogeneous Sources Integration and Chain of Teach Prompts
- Title(参考訳): littlemu: 異種ソースによるオンライン仮想学習アシスタントの展開と指導プロンプトの連鎖
- Authors: Shangqing Tu, Zheyuan Zhang, Jifan Yu, Chunyang Li, Siyu Zhang, Zijun
Yao, Lei Hou, Juanzi Li
- Abstract要約: 質問応答とチャットサービスを提供する仮想MOOC指導アシスタントLittleMuを提案する。
LittleMuはまず構造的、半構造的、非構造的な知識ソースを統合し、幅広い質問に対する正確な回答をサポートする。
2020年5月以降、私たちのLittleMuシステムは、XuetangX MOOCプラットフォーム上の500以上のコースから、80,000以上のユーザと30,000以上のクエリを処理しています。
- 参考スコア(独自算出の注目度): 26.446251076338
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Teaching assistants have played essential roles in the long history of
education. However, few MOOC platforms are providing human or virtual teaching
assistants to support learning for massive online students due to the
complexity of real-world online education scenarios and the lack of training
data. In this paper, we present a virtual MOOC teaching assistant, LittleMu
with minimum labeled training data, to provide question answering and chit-chat
services. Consisting of two interactive modules of heterogeneous retrieval and
language model prompting, LittleMu first integrates structural, semi- and
unstructured knowledge sources to support accurate answers for a wide range of
questions. Then, we design delicate demonstrations named "Chain of Teach"
prompts to exploit the large-scale pre-trained model to handle complex
uncollected questions. Except for question answering, we develop other
educational services such as knowledge-grounded chit-chat. We test the system's
performance via both offline evaluation and online deployment. Since May 2020,
our LittleMu system has served over 80,000 users with over 300,000 queries from
over 500 courses on XuetangX MOOC platform, which continuously contributes to a
more convenient and fair education. Our code, services, and dataset will be
available at https://github.com/THU-KEG/VTA.
- Abstract(参考訳): 教師は教育の長い歴史において重要な役割を担ってきた。
しかし、現実世界のオンライン教育シナリオの複雑さとトレーニングデータの欠如により、大規模なオンライン学生の学習を支援するための人間または仮想的な教育アシスタントを提供しているMOOCプラットフォームはほとんどない。
本稿では,最小ラベル付きトレーニングデータを用いた仮想MOOC学習アシスタントLittleMuを提案し,質問応答とチャットサービスを提供する。
ヘテロジニアス検索と言語モデルによる2つのインタラクティブなモジュールで構成され、LittleMuはまず構造的、半構造的、非構造的な知識ソースを統合し、幅広い質問に対する正確な回答をサポートする。
次に,「教育の連鎖」と呼ばれる繊細な実演をデザインし,大規模事前学習モデルを用いて複雑な未解決質問を処理する。
質問応答以外は,知識接地型チップチャットなど他の教育サービスを開発する。
オフライン評価とオンラインデプロイメントの両方を通じて,システムのパフォーマンスをテストします。
2020年5月以降、私たちのLittleMuシステムは、XuetangX MOOCプラットフォーム上の500以上のコースから、80,000以上のユーザに対して30万以上のクエリを提供しています。
私たちのコード、サービス、データセットはhttps://github.com/thu-keg/vtaで利用可能です。
関連論文リスト
- YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Adapting Large Language Models for Education: Foundational Capabilities,
Potentials, and Challenges [62.909058209342334]
ChatGPTのような大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - EduChat: A Large-Scale Language Model-based Chatbot System for
Intelligent Education [44.2456523088426]
EduChatは、教育分野における大規模言語モデル(LLM)ベースのチャットシステムである。
現在、EduChatはオープンソースプロジェクトとしてオンラインで利用可能であり、そのコード、データ、モデルパラメータはプラットフォームで利用可能である。
論文 参考訳(メタデータ) (2023-08-05T02:55:35Z) - Dodona: learn to code with a virtual co-teacher that supports active
learning [0.0]
Dodonaは、コンピュータプログラミングのためのインテリジェントなチューリングシステムである。
リアルタイムのデータとフィードバックを提供し、生徒の学習を良くする。
Dodonaのソースコードは、寛容なオープンソースライセンスの下でGitHubで入手できる。
論文 参考訳(メタデータ) (2022-10-19T16:56:11Z) - Multimodal Lecture Presentations Dataset: Understanding Multimodality in
Educational Slides [57.86931911522967]
学習内容のマルチモーダル理解における機械学習モデルの能力を検証する。
このデータセットには,180時間以上のビデオと9000時間以上のスライドが,各科目から10人の講師が参加している。
マルチモーダル・トランスフォーマーであるPolyViLTを導入する。
論文 参考訳(メタデータ) (2022-08-17T05:30:18Z) - DMCNet: Diversified Model Combination Network for Understanding
Engagement from Video Screengrabs [0.4397520291340695]
エンゲージメントは知的教育インタフェースの開発において重要な役割を果たしている。
非深さ学習モデルは、Histogram of Oriented Gradient(HOG)、SVM(Support Vector Machine)、SIFT(Scale Invariant Feature Transform)、SURF(Speeded Up Robust Features)といった一般的なアルゴリズムの組み合わせに基づいている。
ディープラーニングには、Densely Connected Convolutional Networks (DenseNet-121)、Residual Network (ResNet-18)、MobileNetV1がある。
論文 参考訳(メタデータ) (2022-04-13T15:24:38Z) - Lifelong Teacher-Student Network Learning [15.350366047108103]
本稿では,教師-学生ネットワークフレームワークを用いた生涯学習手法を提案する。
教師は、以前に学習したデータベースの確率的表現に対応する過去の知識を保存し、再生するように訓練されている。
学生モジュールは、異なるドメインにまたがる連続的なデータ表現と離散的なデータ表現の両方をキャプチャするように訓練されている。
論文 参考訳(メタデータ) (2021-07-09T21:25:56Z) - A Survey of Knowledge Tracing [49.79718735483553]
新型コロナウイルスの感染拡大は、オンライン教育の流行を引き起こしている。
オンライン学習プラットフォームを使用して、大量の学習データを記録および研究することが可能になった。
知識追跡(KT)は、学生の進化する知識状態を監視することを目的としている。
論文 参考訳(メタデータ) (2021-05-06T13:05:55Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Neural Multi-Task Learning for Teacher Question Detection in Online
Classrooms [50.19997675066203]
教師の音声記録から質問を自動的に検出するエンドツーエンドのニューラルネットワークフレームワークを構築している。
マルチタスク学習手法を取り入れることで,質問の種類によって意味的関係の理解を深めることが可能となる。
論文 参考訳(メタデータ) (2020-05-16T02:17:04Z) - Educational Question Mining At Scale: Prediction, Analysis and
Personalization [35.42197158180065]
大規模に教育的な問題から洞察を抽出する枠組みを提案する。
我々は最先端のベイズ深層学習法、特に部分変分オートエンコーダ(p-VAE)を利用する。
提案したフレームワークを,数万の質問と数千万の回答をオンライン教育プラットフォームから収集した実世界のデータセットに適用する。
論文 参考訳(メタデータ) (2020-03-12T19:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。