論文の概要: RAM2C: A Liberal Arts Educational Chatbot based on Retrieval-augmented Multi-role Multi-expert Collaboration
- arxiv url: http://arxiv.org/abs/2409.15461v1
- Date: Mon, 23 Sep 2024 18:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 12:57:29.278558
- Title: RAM2C: A Liberal Arts Educational Chatbot based on Retrieval-augmented Multi-role Multi-expert Collaboration
- Title(参考訳): RAM2C: 検索型マルチロール・マルチエキスパートコラボレーションに基づくリベラルアーツ教育チャットボット
- Authors: Haoyu Huang, Tong Niu, Rui Yang, Luping Shi,
- Abstract要約: 我々は,このような対話データを自動的に生成する検索型多言語多言語協調フレームワークを設計する。
具体的には、まずHTS指導の知識基盤を確立し、スキル、心理学、安全倫理の3つの領域知識を包含する。
次に、RAM2Cは、上記の異なる知識ベースによって強化されたLLMを、異なる役割を持つ複数の専門家グループに編成し、HTS準拠の教育対話データセットを生成する。
- 参考スコア(独自算出の注目度): 10.72930505530085
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, many studies focus on utilizing large language models (LLMs) into educational dialogues. Especially, within liberal arts dialogues, educators must balance \textbf{H}umanized communication, \textbf{T}eaching expertise, and \textbf{S}afety-ethics (\textbf{HTS}), besides the subject knowledge itself. However, due to collecting massive amounts of HTS-compliant teaching dialogues from real world as training corpus is expensive, the outputs of existing LLMs in teaching dialogues fall short of human standards. To address this, we design a Retrieval-augmented Multi-role Multi-expert Collaboration (RAM2C) framework to automatically generate such dialogues data. Specifically, we first establish HTS-guided knowledge bases, encompassing three domain knowledge in teaching skills, psychology, and safety ethics. Then, RAM2C organizes LLMs, which are retrieval-augmented by the above different knowledge bases, into multi-experts groups with distinct roles to generate the HTS-compliant educational dialogues dataset. We then fine-tuned the LLMs using this dataset. Empirical evaluations indicate that RM2C-empowered LLMs excel in Chinese reading teaching, offering more personalized, and ethically safe teaching response, demonstrating RAM2C's practicality and high quality. We release the experiments at \hyperlink{https://github.com/ram2c/ram2c}{https://github.com/ram2c/ram2c}.
- Abstract(参考訳): 近年,大規模言語モデル(LLM)を教育対話に活用する研究が盛んに行われている。
特に、リベラル・アーツの対話では、教育者は、教科知識自体に加えて、 \textbf{H}umanized communication、 \textbf{T}eaching expertise、 \textbf{S}afety-ethics(\textbf{HTS})のバランスをとる必要がある。
しかし,学習コーパスが高価であるとして,実世界から大量のHTS準拠の授業対話を収集するため,既存のLLMの授業対話の成果は人間の基準に届かなかった。
このような対話データを自動的に生成するためのRAM2C(Retrieval-augmented Multi-role Multi-expert Collaboration)フレームワークを設計する。
具体的には、まずHTS指導の知識基盤を確立し、スキル、心理学、安全倫理の3つの領域知識を包含する。
次に、RAM2Cは、上記の異なる知識ベースによって強化されたLLMを、異なる役割を持つ複数の専門家グループに編成し、HTS準拠の教育対話データセットを生成する。
次に、このデータセットを用いてLLMを微調整した。
実証的な評価は、RM2Cを内蔵したLLMが中国語の読み書き教育に優れており、よりパーソナライズされ倫理的に安全な教育応答を提供し、RAM2Cの実用性と高品質を実証していることを示している。
実験は \hyperlink{https://github.com/ram2c/ram2c}{https://github.com/ram2c/ram2c} で公開しています。
関連論文リスト
- 2.5 Years in Class: A Multimodal Textbook for Vision-Language Pretraining [86.76706820098867]
本稿では,VLM事前学習のための基礎知識を充実させた高品質な教科書コーパスについて紹介する。
2.5年以上の授業ビデオを集め、クラス時間は22,000時間である。
ビデオ中心の教科書は、それと比較すると、より一貫性のあるコンテキスト、より豊かな知識、より優れた画像テキストアライメントを提供する。
論文 参考訳(メタデータ) (2025-01-01T21:29:37Z) - INTERACT: Enabling Interactive, Question-Driven Learning in Large Language Models [15.825663946923289]
大規模言語モデル(LLM)は、質問に答える能力は優れているが、受動的学習者であり続ける。
本稿では,LLMが学生と教師の対話を通して,対話型,質問駆動型学習にどのように移行できるかを考察する。
論文 参考訳(メタデータ) (2024-12-16T02:28:53Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - DuetSim: Building User Simulator with Dual Large Language Models for Task-Oriented Dialogues [7.765092134290888]
本稿では,大規模言語モデルを活用することで,タスク指向対話の複雑な要求に対処する新しいフレームワークであるDuetSimを紹介する。
DuetSim は2つの LLM をタンデムで採用することで従来の手法とは異なっている。
提案手法の有効性を,MultiWOZデータセットを用いた広範囲な実験により検証し,応答品質と正しさの向上を強調した。
論文 参考訳(メタデータ) (2024-05-16T06:24:31Z) - Ruffle&Riley: Insights from Designing and Evaluating a Large Language Model-Based Conversational Tutoring System [21.139850269835858]
会話学習システム(CTS)は、自然言語に基づく対話を通じて学習体験を提供する。
大規模言語モデル(LLM)の最近の進歩を2つの方法で活用する新しいタイプのCTSについて検討・評価する。
このシステムは、授業テキストから容易に編集可能な教育用スクリプトを自動生成することにより、AI支援コンテンツオーサリングを可能にする。
論文 参考訳(メタデータ) (2024-04-26T14:57:55Z) - Generative Multi-Modal Knowledge Retrieval with Large Language Models [75.70313858231833]
マルチモーダル知識検索のための革新的なエンドツーエンド生成フレームワークを提案する。
我々のフレームワークは,大規模言語モデル(LLM)が仮想知識ベースとして効果的に機能するという事実を生かしている。
強いベースラインと比較すると,すべての評価指標に対して3.0%から14.6%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-01-16T08:44:29Z) - Ruffle&Riley: Towards the Automated Induction of Conversational Tutoring
Systems [23.093767743306973]
会話学習システム(CTS)は、自然言語の相互作用によって駆動される学習体験を提供する。
大規模言語モデル(LLM)の最近の進歩を2つの方法で活用する新しいタイプのCTSを提案する。
Ruffle&Riley は ITS の典型的な内ループ構造と外ループ構造に従う自由形式の会話を可能にする。
論文 参考訳(メタデータ) (2023-09-26T23:27:06Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Prompt Learning to Mitigate Catastrophic Forgetting in Cross-lingual
Transfer for Open-domain Dialogue Generation [14.68491971816154]
限られたデータを持つ非英語言語に対するオープンドメイン対話生成の文脈において,FS-XLTとマルチタスク学習(MTL)について検討した。
予備実験では,FS-XLT と MTL の両言語で破滅的忘れを観察した。
本稿では,多言語事前学習型言語モデルの多言語性を維持するための,シンプルで効果的なプロンプト学習手法を提案する。
論文 参考訳(メタデータ) (2023-05-12T11:41:16Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - A Mixture-of-Expert Approach to RL-based Dialogue Management [56.08449336469477]
我々は、強化学習を用いて、近視性(一般的な発話の出力)を回避し、全体的なユーザ満足度を最大化する対話エージェントを開発する。
既存のRLアプローチのほとんどは、単語レベルでエージェントを訓練するので、中規模の語彙であっても、非常に複雑なアクション空間を扱う必要がある。
i)会話履歴の多様な意味を学習できるLMと、(ii)対応する発話を生成できる専門的なLM(または専門家)からなる、新しい専門家言語モデル(MoE-LM)を用いたRLベースのDMを開発する。
論文 参考訳(メタデータ) (2022-05-31T19:00:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。