論文の概要: LLM-Guided Lifecycle-Aware Clustering of Multi-Turn Customer Support Conversations
- arxiv url: http://arxiv.org/abs/2601.04388v1
- Date: Wed, 07 Jan 2026 20:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.913412
- Title: LLM-Guided Lifecycle-Aware Clustering of Multi-Turn Customer Support Conversations
- Title(参考訳): マルチターン顧客支援対話におけるLCM誘導型ライフサイクルアウェアクラスタリング
- Authors: Priyaranjan Pattnayak, Sanchari Chowdhuri, Amit Agarwal, Hitesh Laxmichand Patel,
- Abstract要約: マルチサービスクエリを扱うクラウドプロバイダにとって、顧客チャットデータのクラスタリングは不可欠だ。
従来のメソッドは、重複する関心事に苦労し、時間とともに劣化する広範囲で静的なクラスタを生成します。
本稿では,マルチターンチャットをサービス固有の関心事に分割し,新たな問題が発生するにつれてクラスタを漸進的に洗練する適応システムを提案する。
- 参考スコア(独自算出の注目度): 3.038734938037102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clustering customer chat data is vital for cloud providers handling multi service queries. Traditional methods struggle with overlapping concerns and create broad, static clusters that degrade over time. Reclustering disrupts continuity, making issue tracking difficult. We propose an adaptive system that segments multi turn chats into service specific concerns and incrementally refines clusters as new issues arise. Cluster quality is tracked via DaviesBouldin Index and Silhouette Scores, with LLM based splitting applied only to degraded clusters. Our method improves Silhouette Scores by over 100\% and reduces DBI by 65.6\% compared to baselines, enabling scalable, real time analytics without full reclustering.
- Abstract(参考訳): マルチサービスクエリを扱うクラウドプロバイダにとって、顧客チャットデータのクラスタリングは不可欠だ。
従来のメソッドは、重複する関心事に苦労し、時間とともに劣化する広範囲で静的なクラスタを生成します。
再クラスタ化は継続性を阻害し、イシュートラッキングを難しくする。
本稿では,マルチターンチャットをサービス固有の関心事に分割し,新たな問題が発生するにつれてクラスタを漸進的に洗練する適応システムを提案する。
クラスタの品質はDaviesBouldin IndexとSilhouette Scoresを通じて追跡される。
本手法は,Silhouette Scoresを100倍以上改善し,ベースラインに比べてDBIを65.6倍削減し,フル再クラスタ化せずにスケーラブルでリアルタイムな分析を可能にする。
関連論文リスト
- In-Context Clustering with Large Language Models [50.25868718329313]
ICCは、注意機構を通じて入力間の複雑な関係をキャプチャする。
事前学習したLLMは、テキスト符号化された数値データに対して、印象的なゼロショットクラスタリング機能を示す。
我々の研究は、文脈内学習を教師なしの設定に拡張し、クラスタリングにおけるLLMの有効性と柔軟性を示します。
論文 参考訳(メタデータ) (2025-10-09T17:07:55Z) - Agent-Centric Personalized Multiple Clustering with Multi-Modal LLMs [40.38930402847949]
エージェント中心のパーソナライズされたクラスタリングフレームワークを提案する。
エージェントはリレーショナルグラフを横断して、ユーザの関心事に基づいてクラスタを検索する。
その結果,提案手法はカードオーダーとカードサイツのベンチマークで0.9667と0.9481のNMIスコアを得ることができた。
論文 参考訳(メタデータ) (2025-03-28T08:45:15Z) - Fuzzy Cluster-Aware Contrastive Clustering for Time Series [1.435214708535728]
従来の教師なしクラスタリング手法は、しばしば時系列データの複雑な性質を捉えるのに失敗する。
本稿では,表現学習とクラスタリングを協調的に最適化するファジィクラスタ対応コントラストクラスタリングフレームワーク(FCACC)を提案する。
本稿では,時系列データの様々な特徴を活用して特徴抽出を強化するために,新しい3視点データ拡張手法を提案する。
論文 参考訳(メタデータ) (2025-03-28T07:59:23Z) - Asynchronous Federated Clustering with Unknown Number of Clusters [35.35189341303029]
フェデレートクラスタリング(FC)は、ラベルのない非独立なIdentically Distributed(非IID)データから知識をマイニングするために重要である。
本稿では,非同期クラスタ学習(AFCL)手法を提案する。
過剰な数のシードポイントを学習媒体としてクライアントに分散し、それらをクライアント全体にコーディネートしてコンセンサスを形成する。
論文 参考訳(メタデータ) (2024-12-29T03:56:32Z) - Large Language Models Enable Few-Shot Clustering [88.06276828752553]
大規模言語モデルは、クエリ効率が良く、数発のセミ教師付きテキストクラスタリングを可能にするために、専門家のガイダンスを増幅できることを示す。
最初の2つのステージにLSMを組み込むことで、クラスタの品質が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-07-02T09:17:11Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。