論文の概要: From Chat Logs to Collective Insights: Aggregative Question Answering
- arxiv url: http://arxiv.org/abs/2505.23765v1
- Date: Thu, 29 May 2025 17:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:08.09068
- Title: From Chat Logs to Collective Insights: Aggregative Question Answering
- Title(参考訳): チャットログから集合的洞察へ - 集約的な質問回答
- Authors: Wentao Zhang, Woojeong Kim, Yuntian Deng,
- Abstract要約: Aggregative Question Answeringは、何千ものユーザとチャットボットのインタラクションを明示的に推論し、集約的なクエリに答えることを必要とする新しいタスクである。
この方向の研究を可能にするために,実世界の会話182,330から派生した6,027の集約質問からなるWildChat-AQAというベンチマークを構築した。
- 参考スコア(独自算出の注目度): 28.700113669309314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational agents powered by large language models (LLMs) are rapidly becoming integral to our daily interactions, generating unprecedented amounts of conversational data. Such datasets offer a powerful lens into societal interests, trending topics, and collective concerns. Yet, existing approaches typically treat these interactions as independent and miss critical insights that could emerge from aggregating and reasoning across large-scale conversation logs. In this paper, we introduce Aggregative Question Answering, a novel task requiring models to reason explicitly over thousands of user-chatbot interactions to answer aggregative queries, such as identifying emerging concerns among specific demographics. To enable research in this direction, we construct a benchmark, WildChat-AQA, comprising 6,027 aggregative questions derived from 182,330 real-world chatbot conversations. Experiments show that existing methods either struggle to reason effectively or incur prohibitive computational costs, underscoring the need for new approaches capable of extracting collective insights from large-scale conversational data.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用した会話エージェントは、日々の対話に急速に不可欠なものとなり、前例のない量の会話データを生み出している。
このようなデータセットは、社会的関心、トレンドトピック、および集合的関心に対する強力なレンズを提供する。
しかし、既存のアプローチでは、これらのインタラクションを独立して扱い、大規模な会話ログの集約や推論から生まれる重要な洞察を見逃している。
本稿では,ユーザ・チャットボット間の相互作用を数千件以上明示的に推論し,特定の階層間での関心事の出現など,集約的な質問に答える新しいタスクである集約的質問回答を提案する。
この方向の研究を可能にするために,実世界のチャットボット会話182,330から派生した6,027の集約質問からなるWildChat-AQAというベンチマークを構築した。
実験により、既存の手法は効果的な推論に苦しむか、あるいは違法な計算コストを発生させるかのいずれかを示し、大規模な会話データから集合的な洞察を抽出できる新しいアプローチの必要性を強調した。
関連論文リスト
- REALTALK: A 21-Day Real-World Dataset for Long-Term Conversation [51.97224538045096]
本稿では、21日間のメッセージアプリ対話のコーパスであるREALTALKを紹介する。
EI属性とペルソナの整合性を比較し,現実世界の対話による課題を理解する。
その結果,モデルでは対話履歴のみからユーザをシミュレートすることが困難であり,特定のユーザチャットの微調整はペルソナのエミュレーションを改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T20:29:01Z) - InfoQuest: Evaluating Multi-Turn Dialogue Agents for Open-Ended Conversations with Hidden Context [4.262907114077643]
大きな言語モデルは明示的な指示に従う点で優れているが、曖昧さや不完全なユーザリクエストに悩まされることが多い。
オープンエンドのユーザリクエストにおいて、対話エージェントが隠れコンテキストをどのように扱うかを評価するために設計されたベンチマークであるInfoQuestを紹介する。
論文 参考訳(メタデータ) (2025-02-17T19:01:10Z) - ProCIS: A Benchmark for Proactive Retrieval in Conversations [21.23826888841565]
本稿では,280万件以上の会話からなるプロアクティブな文書検索のための大規模データセットを提案する。
クラウドソーシング実験を行い、高品質で比較的完全な妥当性判定を行う。
また、各文書に関連する会話部分に関するアノテーションを収集し、前向きな検索システムの評価を可能にする。
論文 参考訳(メタデータ) (2024-05-10T13:11:07Z) - Generalizing Conversational Dense Retrieval via LLM-Cognition Data Augmentation [25.578440131793858]
既存の会話高密度検索モデルは、主に会話を質問や回答の固定シーケンスとして見る。
本稿では,LLM認識データ拡張(ConvAug)による会話高密度検索の一般化のためのフレームワークを提案する。
人間の認知にインスパイアされた私たちは、偽陽性、偽陰性、幻覚の発生を緩和する認知認識プロセスを考案した。
論文 参考訳(メタデータ) (2024-02-11T03:27:22Z) - Social Commonsense-Guided Search Query Generation for Open-Domain
Knowledge-Powered Conversations [66.16863141262506]
本稿では,ソーシャルコモンセンスによってガイドされたインターネット検索クエリ生成に焦点を当てた新しいアプローチを提案する。
提案フレームワークは,トピックトラッキング,コモンセンス応答生成,命令駆動クエリ生成を統合することで,受動的ユーザインタラクションに対処する。
論文 参考訳(メタデータ) (2023-10-22T16:14:56Z) - AutoConv: Automatically Generating Information-seeking Conversations
with Large Language Models [74.10293412011455]
合成会話生成のためのAutoConvを提案する。
具体的には,会話生成問題を言語モデリングタスクとして定式化する。
我々は、情報探索プロセスの特徴を捉えるために、人間同士の会話でLLMを微調整する。
論文 参考訳(メタデータ) (2023-08-12T08:52:40Z) - ConvFinQA: Exploring the Chain of Numerical Reasoning in Conversational
Finance Question Answering [70.6359636116848]
本稿では,対話型質問応答における数値推論の連鎖を研究するために,新しい大規模データセットConvFinQAを提案する。
我々のデータセットは、現実世界の会話において、長距離で複雑な数値推論パスをモデル化する上で大きな課題となる。
論文 参考訳(メタデータ) (2022-10-07T23:48:50Z) - INSCIT: Information-Seeking Conversations with Mixed-Initiative
Interactions [47.90088587508672]
InSCItは、混合開始型インタラクションによる情報探索会話のためのデータセットである。
ユーザーエージェントは805対人会話から4.7Kである。
対話型知識認識とオープンドメイン質問応答の最先端モデルに基づく2つのシステムの結果を報告する。
論文 参考訳(メタデータ) (2022-07-02T06:18:12Z) - Disentangling Online Chats with DAG-Structured LSTMs [55.33014148383343]
DAG-LSTMはTree-LSTMの一般化であり、間接的な非循環的依存関係を処理できる。
提案する新モデルでは,リプライ・トゥ・リレーション(Repend-to-Relation)を回復する作業において,アート・ステータスの状態を達成できることが示される。
論文 参考訳(メタデータ) (2021-06-16T18:00:00Z) - Conversations with Search Engines: SERP-based Conversational Response
Generation [77.1381159789032]
我々は、検索エンジンと対話するためのパイプラインを開発するために、適切なデータセット、検索・アズ・ア・会話(SaaC)データセットを作成します。
また、このデータセットを用いて、検索エンジンと対話するための最先端パイプライン(Conversations with Search Engines (CaSE))も開発しています。
CaSEは、サポートされたトークン識別モジュールとプリア・アウェア・ポインタージェネレータを導入することで最先端を向上する。
論文 参考訳(メタデータ) (2020-04-29T13:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。