論文の概要: Multi-User Chat Assistant (MUCA): a Framework Using LLMs to Facilitate
Group Conversations
- arxiv url: http://arxiv.org/abs/2401.04883v3
- Date: Fri, 16 Feb 2024 06:26:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 19:32:37.955057
- Title: Multi-User Chat Assistant (MUCA): a Framework Using LLMs to Facilitate
Group Conversations
- Title(参考訳): マルチユーザチャットアシスタント(muca:multi-user chat assistant) - llmを使用したグループ会話のフレームワーク
- Authors: Manqing Mao, Paishun Ting, Yijian Xiang, Mingyang Xu, Julia Chen,
Jianzhe Lin
- Abstract要約: Multi-User Chat Assistant (MUCA)は、グループディスカッション用に特別に設計されたチャットボットのためのLLMベースのフレームワークである。
MUCAは、適切なチャイムインタイミング、関連コンテンツ、ユーザエンゲージメントの改善など、有効性を示す。
- 参考スコア(独自算出の注目度): 3.918004958992473
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advancements in large language models (LLMs) have provided a new
avenue for chatbot development, while most existing research has primarily
centered on single-user chatbots that focus on deciding "What" to answer after
user inputs. In this paper, we identified that multi-user chatbots have more
complex 3W design dimensions -- "What" to say, "When" to respond, and "Who" to
answer. Additionally, we proposed Multi-User Chat Assistant (MUCA), which is an
LLM-based framework for chatbots specifically designed for group discussions.
MUCA consists of three main modules: Sub-topic Generator, Dialog Analyzer, and
Utterance Strategies Arbitrator. These modules jointly determine suitable
response contents, timings, and the appropriate recipients. To make the
optimizing process for MUCA easier, we further propose an LLM-based Multi-User
Simulator (MUS) that can mimic real user behavior. This enables faster
simulation of a conversation between the chatbot and simulated users, making
the early development of the chatbot framework much more efficient. MUCA
demonstrates effectiveness, including appropriate chime-in timing, relevant
content, and improving user engagement, in group conversations with a small to
medium number of participants, as evidenced by case studies and experimental
results from user studies.
- Abstract(参考訳): 最近の大規模言語モデル(llm)の進歩は、チャットボット開発に新たな道を開いたが、既存の研究のほとんどは、主にユーザー入力後に答える「何」を決めることに焦点を当てたシングルユーザーチャットボットに集中している。
本稿では,マルチユーザのチャットボットが,より複雑な3w設計次元 – 応答する“what”,応答する“when”,応答する“who” – を持つことを確認した。
さらに,グループディスカッション用に特別に設計されたチャットボットのためのllmベースのフレームワークであるマルチユーザチャットアシスタント(muca)を提案する。
MUCAは、サブトピックジェネレータ、ダイアログアナライザー、Utterance Strategies Arbitratorの3つの主要なモジュールで構成されている。
これらのモジュールは、適切な応答内容、タイミング、および適切な受信者を決定する。
さらに,MUCAの最適化処理を容易にするために,実際のユーザ動作を模倣できるLLMベースのマルチユーザシミュレータ(MUS)を提案する。
これにより、チャットボットとシミュレートされたユーザ間の会話の高速なシミュレーションが可能になり、チャットボットフレームワークの初期の開発をより効率的にする。
mucaは、ケーススタディや実験結果から示されるように、少人数から中規模までの参加者とのグループ会話において、適切なチャイムインタイミング、関連するコンテンツ、ユーザエンゲージメントの改善などの有効性を示す。
関連論文リスト
- Improving Ontology Requirements Engineering with OntoChat and Participatory Prompting [3.3241053483599563]
OREは主に、ドメインの専門家からユーザ要求を集めるために、インタビューや共同フォーラムのような手動の手法に依存しています。
Current OntoChatは,大規模な言語モデル(LLM)を使用してプロセスを合理化するための,ORE用のフレームワークを提供する。
本研究は,ユーザストーリのペルソナ,目標,シナリオ,サンプルデータ,データリソースの作成と精錬に重点を置いた,ユーザクエリに基づく事前定義されたプロンプトテンプレートを生成する。
論文 参考訳(メタデータ) (2024-08-09T19:21:14Z) - A Reliable Common-Sense Reasoning Socialbot Built Using LLMs and Goal-Directed ASP [3.17686396799427]
自然言語を述語に翻訳するためにLLMモデルを用いたソーシャルボットであるAutoCompanionを提案する。
本稿では, LLM を用いてユーザメッセージを解析し, s(CASP) エンジン出力から応答を生成する手法について述べる。
論文 参考訳(メタデータ) (2024-07-26T04:13:43Z) - LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - On Overcoming Miscalibrated Conversational Priors in LLM-based Chatbots [19.423566424346166]
本研究では,Large Language Model (LLM) ベースのチャットボットを用いて推薦システムを構築する。
チャットボットが不特定要求に遭うと、応答が悪くなるのを観察する。
我々は,このような誤った応答傾向は,アノテータを用いたLPM微調整に起因していると推測する。
論文 参考訳(メタデータ) (2024-06-01T15:54:45Z) - MemoChat: Tuning LLMs to Use Memos for Consistent Long-Range Open-Domain
Conversation [43.24092422054248]
そこで本稿では,大規模言語モデルに対して,自己合成メモを効果的に活用するためのパイプラインを提案する。
我々は、反復的な「記憶-記憶-記憶-応答」サイクルを通して、長い範囲のオープンドメイン会話を実演する。
これらの命令は、LLMに、構造化されたメモによる過去の対話を記憶し、検索するように教えるために、公開データセットの集合から再構築される。
論文 参考訳(メタデータ) (2023-08-16T09:15:18Z) - ChatCoT: Tool-Augmented Chain-of-Thought Reasoning on Chat-based Large
Language Models [125.7209927536255]
チャットベースのLLMのためのツール拡張チェーン推論フレームワークChatCoTを提案する。
ChatCoTでは、チャットを通じてより自然な方法でツールを活用するために、マルチターン会話として思考の連鎖(CoT)推論をモデル化します。
提案手法は,チャットベースのLLMのマルチターン会話能力を効果的に活用し,思考連鎖とツール操作を統一的に統合する。
論文 参考訳(メタデータ) (2023-05-23T17:54:33Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Prompted LLMs as Chatbot Modules for Long Open-domain Conversation [7.511596831927614]
MPCは、微調整を必要とせず、高品質な会話エージェントを作成するための新しいアプローチである。
本手法は,長期的一貫性と柔軟性のために,事前訓練された大規模言語モデル(LLM)を個別モジュールとして利用する。
論文 参考訳(メタデータ) (2023-05-08T08:09:00Z) - Few-Shot Bot: Prompt-Based Learning for Dialogue Systems [58.27337673451943]
ごく少数の例を使って会話を学ぶことは、会話型AIにおける大きな課題である。
現在の最良の会話モデルは、良いチャットシャッター(例:BlenderBot)またはゴール指向システム(例:MinTL)である。
グラデーションベースの微調整を必要とせず、学習の唯一の源としていくつかの例を用いるプロンプトベースの数ショット学習を提案する。
論文 参考訳(メタデータ) (2021-10-15T14:36:45Z) - Disentangling Online Chats with DAG-Structured LSTMs [55.33014148383343]
DAG-LSTMはTree-LSTMの一般化であり、間接的な非循環的依存関係を処理できる。
提案する新モデルでは,リプライ・トゥ・リレーション(Repend-to-Relation)を回復する作業において,アート・ステータスの状態を達成できることが示される。
論文 参考訳(メタデータ) (2021-06-16T18:00:00Z) - Response Selection for Multi-Party Conversations with Dynamic Topic
Tracking [63.15158355071206]
我々は、応答と関連する会話コンテキストの間のトピックを一致させるために、動的トピック追跡タスクとして応答選択をフレーム化する。
本研究では,大規模な事前学習モデルによる効率的な符号化を支援する新しいマルチタスク学習フレームワークを提案する。
DSTC-8 Ubuntu IRCデータセットの実験結果は、応答選択とトピックのアンタングル化タスクにおける最先端の結果を示している。
論文 参考訳(メタデータ) (2020-10-15T14:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。