論文の概要: LittleMu: Deploying an Online Virtual Teaching Assistant via
Heterogeneous Sources Integration and Chain of Teach Prompts
- arxiv url: http://arxiv.org/abs/2308.05935v1
- Date: Fri, 11 Aug 2023 04:36:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 15:03:53.135741
- Title: LittleMu: Deploying an Online Virtual Teaching Assistant via
Heterogeneous Sources Integration and Chain of Teach Prompts
- Title(参考訳): littlemu: 異種ソースによるオンライン仮想学習アシスタントの展開と指導プロンプトの連鎖
- Authors: Shangqing Tu, Zheyuan Zhang, Jifan Yu, Chunyang Li, Siyu Zhang, Zijun
Yao, Lei Hou, Juanzi Li
- Abstract要約: 質問応答とチャットサービスを提供する仮想MOOC指導アシスタントLittleMuを提案する。
LittleMuはまず構造的、半構造的、非構造的な知識ソースを統合し、幅広い質問に対する正確な回答をサポートする。
2020年5月以降、私たちのLittleMuシステムは、XuetangX MOOCプラットフォーム上の500以上のコースから、80,000以上のユーザと30,000以上のクエリを処理しています。
- 参考スコア(独自算出の注目度): 26.446251076338
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Teaching assistants have played essential roles in the long history of
education. However, few MOOC platforms are providing human or virtual teaching
assistants to support learning for massive online students due to the
complexity of real-world online education scenarios and the lack of training
data. In this paper, we present a virtual MOOC teaching assistant, LittleMu
with minimum labeled training data, to provide question answering and chit-chat
services. Consisting of two interactive modules of heterogeneous retrieval and
language model prompting, LittleMu first integrates structural, semi- and
unstructured knowledge sources to support accurate answers for a wide range of
questions. Then, we design delicate demonstrations named "Chain of Teach"
prompts to exploit the large-scale pre-trained model to handle complex
uncollected questions. Except for question answering, we develop other
educational services such as knowledge-grounded chit-chat. We test the system's
performance via both offline evaluation and online deployment. Since May 2020,
our LittleMu system has served over 80,000 users with over 300,000 queries from
over 500 courses on XuetangX MOOC platform, which continuously contributes to a
more convenient and fair education. Our code, services, and dataset will be
available at https://github.com/THU-KEG/VTA.
- Abstract(参考訳): 教師は教育の長い歴史において重要な役割を担ってきた。
しかし、現実世界のオンライン教育シナリオの複雑さとトレーニングデータの欠如により、大規模なオンライン学生の学習を支援するための人間または仮想的な教育アシスタントを提供しているMOOCプラットフォームはほとんどない。
本稿では,最小ラベル付きトレーニングデータを用いた仮想MOOC学習アシスタントLittleMuを提案し,質問応答とチャットサービスを提供する。
ヘテロジニアス検索と言語モデルによる2つのインタラクティブなモジュールで構成され、LittleMuはまず構造的、半構造的、非構造的な知識ソースを統合し、幅広い質問に対する正確な回答をサポートする。
次に,「教育の連鎖」と呼ばれる繊細な実演をデザインし,大規模事前学習モデルを用いて複雑な未解決質問を処理する。
質問応答以外は,知識接地型チップチャットなど他の教育サービスを開発する。
オフライン評価とオンラインデプロイメントの両方を通じて,システムのパフォーマンスをテストします。
2020年5月以降、私たちのLittleMuシステムは、XuetangX MOOCプラットフォーム上の500以上のコースから、80,000以上のユーザに対して30万以上のクエリを提供しています。
私たちのコード、サービス、データセットはhttps://github.com/thu-keg/vtaで利用可能です。
関連論文リスト
- From MOOC to MAIC: Reshaping Online Teaching and Learning through LLM-driven Agents [78.15899922698631]
MAIC(Massive AI-empowered Course)は、LLM駆動のマルチエージェントシステムを活用して、AIが強化された教室を構築するオンライン教育の新たな形態である。
中国一の大学である清華大学で予備的な実験を行う。
論文 参考訳(メタデータ) (2024-09-05T13:22:51Z) - Integrating A.I. in Higher Education: Protocol for a Pilot Study with 'SAMCares: An Adaptive Learning Hub' [0.6990493129893112]
本研究は,「SAMCares」と呼ぶ革新的な研究仲間を紹介することを目的としている。
このシステムは、Large Language Model(LLM)とRetriever-Augmented Generation(RAG)を利用して、リアルタイム、コンテキスト認識、適応的な教育サポートを提供する。
論文 参考訳(メタデータ) (2024-05-01T05:39:07Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Empowering Private Tutoring by Chaining Large Language Models [87.76985829144834]
本研究は,最先端の大規模言語モデル(LLM)を活用した,本格的な知的チューリングシステムの開発を探求する。
このシステムは、相互に接続された3つのコアプロセス(相互作用、反射、反応)に分けられる。
各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。
論文 参考訳(メタデータ) (2023-09-15T02:42:03Z) - EduChat: A Large-Scale Language Model-based Chatbot System for
Intelligent Education [44.2456523088426]
EduChatは、教育分野における大規模言語モデル(LLM)ベースのチャットシステムである。
現在、EduChatはオープンソースプロジェクトとしてオンラインで利用可能であり、そのコード、データ、モデルパラメータはプラットフォームで利用可能である。
論文 参考訳(メタデータ) (2023-08-05T02:55:35Z) - Multimodal Lecture Presentations Dataset: Understanding Multimodality in
Educational Slides [57.86931911522967]
学習内容のマルチモーダル理解における機械学習モデルの能力を検証する。
このデータセットには,180時間以上のビデオと9000時間以上のスライドが,各科目から10人の講師が参加している。
マルチモーダル・トランスフォーマーであるPolyViLTを導入する。
論文 参考訳(メタデータ) (2022-08-17T05:30:18Z) - DMCNet: Diversified Model Combination Network for Understanding
Engagement from Video Screengrabs [0.4397520291340695]
エンゲージメントは知的教育インタフェースの開発において重要な役割を果たしている。
非深さ学習モデルは、Histogram of Oriented Gradient(HOG)、SVM(Support Vector Machine)、SIFT(Scale Invariant Feature Transform)、SURF(Speeded Up Robust Features)といった一般的なアルゴリズムの組み合わせに基づいている。
ディープラーニングには、Densely Connected Convolutional Networks (DenseNet-121)、Residual Network (ResNet-18)、MobileNetV1がある。
論文 参考訳(メタデータ) (2022-04-13T15:24:38Z) - Lifelong Teacher-Student Network Learning [15.350366047108103]
本稿では,教師-学生ネットワークフレームワークを用いた生涯学習手法を提案する。
教師は、以前に学習したデータベースの確率的表現に対応する過去の知識を保存し、再生するように訓練されている。
学生モジュールは、異なるドメインにまたがる連続的なデータ表現と離散的なデータ表現の両方をキャプチャするように訓練されている。
論文 参考訳(メタデータ) (2021-07-09T21:25:56Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Neural Multi-Task Learning for Teacher Question Detection in Online
Classrooms [50.19997675066203]
教師の音声記録から質問を自動的に検出するエンドツーエンドのニューラルネットワークフレームワークを構築している。
マルチタスク学習手法を取り入れることで,質問の種類によって意味的関係の理解を深めることが可能となる。
論文 参考訳(メタデータ) (2020-05-16T02:17:04Z) - Educational Question Mining At Scale: Prediction, Analysis and
Personalization [35.42197158180065]
大規模に教育的な問題から洞察を抽出する枠組みを提案する。
我々は最先端のベイズ深層学習法、特に部分変分オートエンコーダ(p-VAE)を利用する。
提案したフレームワークを,数万の質問と数千万の回答をオンライン教育プラットフォームから収集した実世界のデータセットに適用する。
論文 参考訳(メタデータ) (2020-03-12T19:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。