論文の概要: GroupGPT: A Token-efficient and Privacy-preserving Agentic Framework for Multi-User Chat Assistant
- arxiv url: http://arxiv.org/abs/2603.01059v1
- Date: Sun, 01 Mar 2026 11:29:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.486107
- Title: GroupGPT: A Token-efficient and Privacy-preserving Agentic Framework for Multi-User Chat Assistant
- Title(参考訳): GroupGPT:マルチユーザチャットアシスタントのためのトークン効率・プライバシ保護エージェントフレームワーク
- Authors: Zhuokang Shen, Yifan Wang, Hanyu Chen, Wenxuan Huang, Shaohui Lin,
- Abstract要約: GroupGPTは、マルチユーザーチャットアシスタントのためのトークン効率とプライバシ保護のためのエージェントフレームワークである。
マルチユーザチャットアシスタントの介入推論のためのベンチマークデータセットであるMUIRを紹介する。
実験により、GroupGPTは正確かつ適切な応答を生成することが示された。
- 参考スコア(独自算出の注目度): 18.992005077080588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large language models (LLMs) have enabled increasingly capable chatbots. However, most existing systems focus on single-user settings and do not generalize well to multi-user group chats, where agents require more proactive and accurate intervention under complex, evolving contexts. Existing approaches typically rely on LLMs for both reasoning and generation, leading to high token consumption, limited scalability, and potential privacy risks. To address these challenges, we propose GroupGPT, a token-efficient and privacy-preserving agentic framework for multi-user chat assistant. GroupGPT adopts a small-large model collaborative architecture to decouple intervention timing from response generation, enabling efficient and accurate decision-making. The framework also supports multimodal inputs, including memes, images, videos, and voice messages. We further introduce MUIR, a benchmark dataset for multi-user chat assistant intervention reasoning. MUIR contains 2,500 annotated group chat segments with intervention labels and rationales, supporting evaluation of timing accuracy and response quality. We evaluate a range of models on MUIR, from large language models to smaller counterparts. Extensive experiments demonstrate that GroupGPT produces accurate and well-timed responses, achieving an average score of 4.72/5.0 in LLM-based evaluation, and is well received by users across diverse group chat scenarios. Moreover, GroupGPT reduces token usage by up to 3 times compared to baseline methods, while providing privacy sanitization of user messages before cloud transmission. Code is available at: https://github.com/Eliot-Shen/GroupGPT .
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、ますます有能なチャットボットを可能にしている。
しかし、既存のシステムの多くはシングルユーザー設定に重点を置いており、エージェントが複雑で進化するコンテキスト下でより積極的に正確な介入を必要とするマルチユーザーグループチャットにうまく一般化していない。
既存のアプローチは通常、推論と生成の両方にLLMに依存しており、高いトークン消費、限られたスケーラビリティ、潜在的なプライバシーリスクにつながる。
これらの課題に対処するために,マルチユーザチャットアシスタントのためのトークン効率とプライバシ保護のためのエージェントフレームワークであるGroupGPTを提案する。
GroupGPTは、介入タイミングを応答生成から切り離すために、小さなモデルの協調アーキテクチャを採用し、効率的で正確な意思決定を可能にする。
このフレームワークは、ミーム、画像、ビデオ、音声メッセージを含むマルチモーダル入力もサポートする。
さらに,マルチユーザチャットアシスタントの介入推論のためのベンチマークデータセットであるMUIRを紹介する。
MUIRには2500の注釈付きグループチャットセグメントがあり、介入ラベルと合理性があり、タイミング精度と応答品質の評価をサポートする。
MUIRでは,大きな言語モデルから小さな言語モデルまで,さまざまなモデルを評価する。
広範にわたる実験により,グループGPTは,LLMに基づく評価において平均4.72/5.0のスコアを達成し,多様なグループチャットシナリオでユーザから好評を得た。
さらに、GroupGPTは、クラウド送信前のユーザメッセージのプライバシサニタイズを提供しながら、ベースラインメソッドと比較してトークン使用量を最大3倍削減する。
コードは、https://github.com/Eliot-Shen/GroupGPT で入手できる。
関連論文リスト
- GCAgent: Enhancing Group Chat Communication through Dialogue Agents System [24.954331957757645]
GCAgentは、エンターテイメントとユーティリティ指向の対話エージェントとのグループチャットコミュニケーションを強化するための、LLM(Big Language Model)駆動システムである。
このシステムは、Agent Builder、Dialogue Manager、Interface pluginsの3つの密に統合されたモジュールで構成されている。
350日間の実際の展開では、メッセージ量が28.80%増加し、グループ活動とエンゲージメントが大幅に向上した。
論文 参考訳(メタデータ) (2026-03-05T14:55:57Z) - AMUSE: Audio-Visual Benchmark and Alignment Framework for Agentic Multi-Speaker Understanding [73.05946667683259]
最近の大規模言語モデル(MLLM)は、強い認識を示すが、多話者、対話中心の設定に苦戦している。
本質的にエージェント的なタスクを中心に設計されたベンチマークであるAMUSEを紹介します。
我々は、報酬最適化と本質的なマルチモーダル自己評価を統合するデータ効率の高いエージェントアライメントフレームワークRAFTを提案する。
論文 参考訳(メタデータ) (2025-12-18T07:01:47Z) - Test-Time Scaling Strategies for Generative Retrieval in Multimodal Conversational Recommendations [70.94563079082751]
電子商取引は、複雑なマルチターンユーザーインタラクションを管理する上で、伝統的な製品検索システムの限界を明らかにしている。
本稿では,対話型マルチモーダル製品検索にテスト時間スケーリングを導入する新しいフレームワークを提案する。
提案手法は生成型レトリバー上に構築され,さらに検索精度の向上と,対話を通してユーザ意図の進化と結果の整合性を向上するテストタイムリグレード機構が組み込まれている。
論文 参考訳(メタデータ) (2025-08-25T15:38:56Z) - A Framework for Generating Conversational Recommendation Datasets from Behavioral Interactions [2.0693204407592836]
ConvRecStudioは、リアルタイムなマルチターンダイアログをシミュレートするフレームワークで、タイムスタンプによるユーザとイテムのインタラクションとレビューに基礎を置いている。
我々は、MobileRec、Yelp、Amazon Electronicsの3つのドメインにConvRecStudioを適用する。
論文 参考訳(メタデータ) (2025-06-14T22:58:48Z) - Know Me, Respond to Me: Benchmarking LLMs for Dynamic User Profiling and Personalized Responses at Scale [53.059480071818136]
大規模言語モデル(LLM)は、幅広いタスクでユーザのためのパーソナライズされたアシスタントとして登場した。
PERSONAMEMは180以上のユーザ-LLMインタラクション履歴を持つキュレートされたユーザプロファイルを備えている。
LLMチャットボットのユーザプロファイルの現在状況に応じて,最も適切な応答を識別する能力を評価する。
論文 参考訳(メタデータ) (2025-04-19T08:16:10Z) - Beyond the Turn-Based Game: Enabling Real-Time Conversations with Duplex Models [66.24055500785657]
従来のターンベースのチャットシステムは、ユーザが応答を生成している間に、システムが言葉で対話することを防ぐ。
これらの制限を克服するため,既存のLCMをユーザを聴きながら出力を生成し,ユーザに対して即時フィードバックを提供する。
クエリとレスポンスの時間スライスを交互に行うデータセットを構築し、インスタントインタラクションにおける典型的なフィードバックタイプをカバーする。
論文 参考訳(メタデータ) (2024-06-22T03:20:10Z) - Multi-User Chat Assistant (MUCA): a Framework Using LLMs to Facilitate Group Conversations [3.6975712141698445]
Multi-User Chat Assistant (MUCA) は、グループディスカッションに適したLLMベースのフレームワークである。
MUCAは、サブトピックジェネレータ(Sub-topic Generator)、ダイアログアナライザー(Dilog Analyzer)、会話戦略アービタ(Conversational Strategies Arbitrator)の3つの主要なモジュールで構成されている。
MUCAの最適化を容易にするために,LLMに基づくマルチユーザシミュレータ(MUS)を提案する。
論文 参考訳(メタデータ) (2024-01-10T02:22:21Z) - Enhancing Chat Language Models by Scaling High-quality Instructional
Conversations [91.98516412612739]
まず,UltraChatという,体系的に設計され,多様で,情報的,大規模な会話データセットを提供する。
我々の目標は、人間がAIアシスタントで持つであろう対話の幅を捉えることです。
我々はLLaMAモデルを微調整し、強力な対話モデルであるUltraLLaMAを作成する。
論文 参考訳(メタデータ) (2023-05-23T16:49:14Z) - A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on
Reasoning, Hallucination, and Interactivity [79.12003701981092]
8種類の共通NLPアプリケーションタスクをカバーする23のデータセットを用いてChatGPTの広範な技術的評価を行う。
これらのデータセットと、新たに設計されたマルチモーダルデータセットに基づいて、ChatGPTのマルチタスク、マルチリンガル、マルチモーダルの側面を評価する。
ChatGPTの精度は平均63.41%で、論理的推論、非テキスト的推論、コモンセンス推論の10の異なる推論カテゴリで正確である。
論文 参考訳(メタデータ) (2023-02-08T12:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。