論文の概要: LLM-Guided Lifecycle-Aware Clustering of Multi-Turn Customer Support Conversations
- arxiv url: http://arxiv.org/abs/2601.04388v1
- Date: Wed, 07 Jan 2026 20:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.913412
- Title: LLM-Guided Lifecycle-Aware Clustering of Multi-Turn Customer Support Conversations
- Title(参考訳): マルチターン顧客支援対話におけるLCM誘導型ライフサイクルアウェアクラスタリング
- Authors: Priyaranjan Pattnayak, Sanchari Chowdhuri, Amit Agarwal, Hitesh Laxmichand Patel,
- Abstract要約: マルチサービスクエリを扱うクラウドプロバイダにとって、顧客チャットデータのクラスタリングは不可欠だ。
従来のメソッドは、重複する関心事に苦労し、時間とともに劣化する広範囲で静的なクラスタを生成します。
本稿では,マルチターンチャットをサービス固有の関心事に分割し,新たな問題が発生するにつれてクラスタを漸進的に洗練する適応システムを提案する。
- 参考スコア(独自算出の注目度): 3.038734938037102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clustering customer chat data is vital for cloud providers handling multi service queries. Traditional methods struggle with overlapping concerns and create broad, static clusters that degrade over time. Reclustering disrupts continuity, making issue tracking difficult. We propose an adaptive system that segments multi turn chats into service specific concerns and incrementally refines clusters as new issues arise. Cluster quality is tracked via DaviesBouldin Index and Silhouette Scores, with LLM based splitting applied only to degraded clusters. Our method improves Silhouette Scores by over 100\% and reduces DBI by 65.6\% compared to baselines, enabling scalable, real time analytics without full reclustering.
- Abstract(参考訳): マルチサービスクエリを扱うクラウドプロバイダにとって、顧客チャットデータのクラスタリングは不可欠だ。
従来のメソッドは、重複する関心事に苦労し、時間とともに劣化する広範囲で静的なクラスタを生成します。
再クラスタ化は継続性を阻害し、イシュートラッキングを難しくする。
本稿では,マルチターンチャットをサービス固有の関心事に分割し,新たな問題が発生するにつれてクラスタを漸進的に洗練する適応システムを提案する。
クラスタの品質はDaviesBouldin IndexとSilhouette Scoresを通じて追跡される。
本手法は,Silhouette Scoresを100倍以上改善し,ベースラインに比べてDBIを65.6倍削減し,フル再クラスタ化せずにスケーラブルでリアルタイムな分析を可能にする。
関連論文リスト
- ESMC: MLLM-Based Embedding Selection for Explainable Multiple Clustering [79.69917150582633]
MLLM(Multi-modal large language model)は、ユーザ主導のクラスタリングを実現するために利用することができる。
本手法はまず,MLLMのテキストトークンの隠蔽状態が対応する特徴と強く関連していることを明らかにする。
また、擬似ラベル学習を付加した軽量クラスタリングヘッドを採用し、クラスタリング精度を大幅に向上させた。
論文 参考訳(メタデータ) (2025-11-30T04:36:51Z) - In-Context Clustering with Large Language Models [50.25868718329313]
ICCは、注意機構を通じて入力間の複雑な関係をキャプチャする。
事前学習したLLMは、テキスト符号化された数値データに対して、印象的なゼロショットクラスタリング機能を示す。
我々の研究は、文脈内学習を教師なしの設定に拡張し、クラスタリングにおけるLLMの有効性と柔軟性を示します。
論文 参考訳(メタデータ) (2025-10-09T17:07:55Z) - Agent-Centric Personalized Multiple Clustering with Multi-Modal LLMs [40.38930402847949]
エージェント中心のパーソナライズされたクラスタリングフレームワークを提案する。
エージェントはリレーショナルグラフを横断して、ユーザの関心事に基づいてクラスタを検索する。
その結果,提案手法はカードオーダーとカードサイツのベンチマークで0.9667と0.9481のNMIスコアを得ることができた。
論文 参考訳(メタデータ) (2025-03-28T08:45:15Z) - Fuzzy Cluster-Aware Contrastive Clustering for Time Series [1.435214708535728]
従来の教師なしクラスタリング手法は、しばしば時系列データの複雑な性質を捉えるのに失敗する。
本稿では,表現学習とクラスタリングを協調的に最適化するファジィクラスタ対応コントラストクラスタリングフレームワーク(FCACC)を提案する。
本稿では,時系列データの様々な特徴を活用して特徴抽出を強化するために,新しい3視点データ拡張手法を提案する。
論文 参考訳(メタデータ) (2025-03-28T07:59:23Z) - Moving Past Single Metrics: Exploring Short-Text Clustering Across Multiple Resolutions [0.0]
この研究は、3万の政治Twitterの伝記を含む、短いテキストのクラスタリングに焦点を当てている。
クラスタ解像度間の特定のクラスタの安定性を明らかにするために、比例安定性の指標が導入された。
結果は、データセットの性質を理解するための質問ツールを提供するために、Sankeyダイアグラムを使用して視覚化される。
論文 参考訳(メタデータ) (2025-02-24T10:17:09Z) - Asynchronous Federated Clustering with Unknown Number of Clusters [35.35189341303029]
フェデレートクラスタリング(FC)は、ラベルのない非独立なIdentically Distributed(非IID)データから知識をマイニングするために重要である。
本稿では,非同期クラスタ学習(AFCL)手法を提案する。
過剰な数のシードポイントを学習媒体としてクライアントに分散し、それらをクライアント全体にコーディネートしてコンセンサスを形成する。
論文 参考訳(メタデータ) (2024-12-29T03:56:32Z) - Contrastive Continual Multi-view Clustering with Filtered Structural
Fusion [57.193645780552565]
ビューが事前に収集されるアプリケーションでは、マルチビュークラスタリングが成功します。
データビューがシーケンシャルに収集されるシナリオ、すなわちリアルタイムデータを見落としている。
いくつかの方法が提案されているが、安定塑性ジレンマに閉じ込められている。
フィルタ構造融合を用いたコントラスト連続多視点クラスタリングを提案する。
論文 参考訳(メタデータ) (2023-09-26T14:18:29Z) - Large Language Models Enable Few-Shot Clustering [88.06276828752553]
大規模言語モデルは、クエリ効率が良く、数発のセミ教師付きテキストクラスタリングを可能にするために、専門家のガイダンスを増幅できることを示す。
最初の2つのステージにLSMを組み込むことで、クラスタの品質が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-07-02T09:17:11Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。