論文の概要: TWIST: Training-free and Label-free Short Text Clustering through Iterative Vector Updating with LLMs
- arxiv url: http://arxiv.org/abs/2510.06747v1
- Date: Wed, 08 Oct 2025 08:05:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.359675
- Title: TWIST: Training-free and Label-free Short Text Clustering through Iterative Vector Updating with LLMs
- Title(参考訳): TWIST: LLMによる反復ベクトル更新による学習不要・ラベルなし短文クラスタリング
- Authors: I-Fan Lin, Faegheh Hasibi, Suzan Verberne,
- Abstract要約: 本稿では,短時間のテキストクラスタリングのためのトレーニングフリーかつラベルフリーな手法を提案する。
提案手法は,最先端手法に匹敵する,あるいは優れた結果が得られる。
- 参考スコア(独自算出の注目度): 18.746184073913813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a training-free and label-free method for short text clustering that can be used on top of any existing embedder. In the context of customer-facing chatbots, companies are dealing with large amounts of user utterances that need to be clustered according to their intent. In these commercial settings, no labeled data is typically available, and the number of clusters is not known. Our method is based on iterative vector updating: it constructs sparse vectors based on representative texts, and then iteratively refines them through LLM guidance. Our method achieves comparable or superior results to state-of-the-art methods that use contrastive learning, but without assuming prior knowledge of clusters or labels. Experiments on diverse datasets and smaller LLMs show that our method is model agnostic and can be applied to any embedder, with relatively small LLMs, and different clustering methods. We also show that our method scales to large datasets, reducing the computational cost of the LLM. These low-resource, adaptable settings and the scalability of our method make it more aligned with real-world scenarios than existing clustering methods.
- Abstract(参考訳): 本稿では,既存の組込み機上で使用可能な,テキストクラスタリングのためのトレーニングフリーかつラベルフリーな手法を提案する。
カスタマー向けチャットボットの文脈では、企業は意図に応じてクラスタ化する必要がある大量のユーザー発話を処理している。
これらの商用設定では、ラベル付きデータは一般的に利用できず、クラスタの数も不明である。
本手法は反復ベクトル更新に基づいて,代表文に基づいてスパースベクトルを構築し,LLM誘導により反復的に洗練する。
提案手法は,クラスタやラベルの事前知識を前提とせず,コントラスト学習を用いた最先端の手法に匹敵する,あるいは優れた結果が得られる。
多様なデータセットおよびより小さなLCM実験により,本手法はモデル非依存であり,比較的小さなLCMと異なるクラスタリング手法を用いて,どんな埋め込みにも適用可能であることが示された。
また,本手法は大規模データセットにスケールし,LLMの計算コストを低減できることを示した。
これらの低リソースで適応可能な設定と我々のメソッドのスケーラビリティにより、既存のクラスタリングメソッドよりも現実のシナリオに適合する。
関連論文リスト
- Summaries as Centroids for Interpretable and Scalable Text Clustering [0.0]
我々は,k-NLPmeansとk-LLMmeansを紹介した。
重要なアイデアであるサマリ・アズ・センタロイドは、人間可読で監査可能なクラスタプロトタイプを作成しながら、埋め込み空間におけるk平均の割り当てを保持します。
論文 参考訳(メタデータ) (2025-02-12T19:50:22Z) - Text Clustering as Classification with LLMs [9.128151647718251]
本稿では,大規模言語モデルの文脈内学習機能を活用することで,テキストクラスタリングを分類タスクとして再編成するフレームワークを提案する。
LLMの高度な自然言語理解と一般化機能を活用することで,人間の介入を最小限に抑えた効果的なクラスタリングを実現する。
多様なデータセットに対する実験結果から,我々のフレームワークは,最先端の組込みクラスタリング技術に匹敵する,あるいは優れた性能を達成できることが示された。
論文 参考訳(メタデータ) (2024-09-30T16:57:34Z) - DynamicNER: A Dynamic, Multilingual, and Fine-Grained Dataset for LLM-based Named Entity Recognition [53.019885776033824]
動的分類を伴うLarge Language Models (LLM) ベースの手法のために設計された最初のNERデータセットであるDynamicNERを提案する。
データセットは多言語および多言語で、8言語と155のエンティティタイプをカバーし、コーパスはさまざまなドメインにまたがる。
実験によると、DynamicNERはLLMベースのNERメソッドの堅牢で効果的なベンチマークとして機能している。
論文 参考訳(メタデータ) (2024-09-17T09:32:12Z) - Aligning Language Models with Demonstrated Feedback [58.834937450242975]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - Learning to Prompt with Text Only Supervision for Vision-Language Models [107.282881515667]
メソッドの1つのブランチは、視覚情報を使用してプロンプトを学習することでCLIPに適応する。
別のアプローチでは、大規模な言語モデルからクラス記述を生成することで、トレーニング不要の手法を利用する。
そこで本研究では,テキストデータのみを用いてプロンプトを学習することで,両ストリームの強みを組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-01-04T18:59:49Z) - Large Language Models Enable Few-Shot Clustering [88.06276828752553]
大規模言語モデルは、クエリ効率が良く、数発のセミ教師付きテキストクラスタリングを可能にするために、専門家のガイダンスを増幅できることを示す。
最初の2つのステージにLSMを組み込むことで、クラスタの品質が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-07-02T09:17:11Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Beyond prompting: Making Pre-trained Language Models Better Zero-shot
Learners by Clustering Representations [24.3378487252621]
事前学習した言語モデルの埋め込み空間にテキストをクラスタリングすることで、ゼロショットテキスト分類を改善することができることを示す。
提案手法は, 即発的なゼロショット学習よりも平均20%絶対的な改善を実現している。
論文 参考訳(メタデータ) (2022-10-29T16:01:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。