論文の概要: Text Mining Through Label Induction Grouping Algorithm Based Method
- arxiv url: http://arxiv.org/abs/2112.08486v1
- Date: Wed, 15 Dec 2021 21:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-18 09:35:36.072433
- Title: Text Mining Through Label Induction Grouping Algorithm Based Method
- Title(参考訳): ラベル誘導型グループ化アルゴリズムによるテキストマイニング
- Authors: Gulshan Saleem, Nisar Ahmed, Usman Qamar
- Abstract要約: その結果,LSIをコンテンツディスカバリに使用する場合,lingOの方が40~50%よい結果が得られた。
その結果,LSIをコンテンツディスカバリに使用する場合,lingOの方が40~50%よい結果が得られた。
- 参考スコア(独自算出の注目度): 0.6813925418351433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The main focus of information retrieval methods is to provide accurate and
efficient results which are cost-effective too. LINGO (Label Induction Grouping
Algorithm) is a clustering algorithm that aims to provide search results in
form of quality clusters but also has a few limitations. In this paper, our
focus is based on achieving results that are more meaningful and improving the
overall performance of the algorithm. LINGO works on two main steps; Cluster
Label Induction by using Latent Semantic Indexing technique (LSI) and Cluster
content discovery by using the Vector Space Model (VSM). As LINGO uses VSM in
cluster content discovery, our task is to replace VSM with LSI for cluster
content discovery and to analyze the feasibility of using LSI with Okapi BM25.
The next task is to compare the results of a modified method with the LINGO
original method. The research is applied to five different text-based data sets
to get more reliable results for every method. Research results show that LINGO
produces 40-50% better results when using LSI for content Discovery. From
theoretical evidence using Okapi BM25 for scoring method in LSI (LSI+Okapi
BM25) for cluster content discovery instead of VSM, also results in better
clusters generation in terms of scalability and performance when compares to
both VSM and LSI's Results.
- Abstract(参考訳): 情報検索手法の主な焦点は、コスト効率の良い正確かつ効率的な結果を提供することである。
lingO (Label induction Grouping Algorithm) は、品質クラスタの形で検索結果を提供することを目的としたクラスタリングアルゴリズムであるが、いくつかの制限がある。
本稿では,より有意義な結果の達成と,アルゴリズム全体の性能向上に焦点をあてる。
lingOは、Latent Semantic Indexing(LSI)技術によるクラスタラベル誘導と、Vector Space Model(VSM)を用いたクラスタコンテンツ発見の2つの主要なステップで動作する。
lingOは、クラスタコンテンツ発見にVSMを使用するため、VSMをLSIに置き換えてクラスタコンテンツ発見を行い、LSIをOkapi BM25で使用することの可能性を分析する。
次のタスクは、修正されたメソッドの結果をlingoオリジナルメソッドと比較することです。
この研究は5つの異なるテキストベースのデータセットに適用され、各メソッドに対してより信頼性の高い結果を得る。
その結果,LSIをコンテンツディスカバリに使用する場合,lingOの方が40~50%よい結果が得られた。
VSMの代わりにLSI(LSI+Okapi BM25)のスコアリング法としてOkapi BM25を用いた理論的証拠から、VSMとLSIの結果を比較すると、スケーラビリティと性能の点でクラスタ生成性が向上する。
関連論文リスト
- OMH: Structured Sparsity via Optimally Matched Hierarchy for
Unsupervised Semantic Segmentation [59.17881251444659]
Un Semantic segmenting (USS)は、事前に定義されたラベルに頼ることなく、イメージをセグメント化する。
上記の問題を同時に解決するために,OMH (Optimally Matched Hierarchy) という新しいアプローチを導入する。
我々のOMHは既存のUSS法と比較して教師なしセグメンテーション性能がよい。
論文 参考訳(メタデータ) (2024-03-11T09:46:41Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - Large Language Models Enable Few-Shot Clustering [88.06276828752553]
大規模言語モデルは、クエリ効率が良く、数発のセミ教師付きテキストクラスタリングを可能にするために、専門家のガイダンスを増幅できることを示す。
最初の2つのステージにLSMを組み込むことで、クラスタの品質が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-07-02T09:17:11Z) - CLC: Cluster Assignment via Contrastive Representation Learning [9.631532215759256]
コントラスト学習を用いてクラスタ割り当てを直接学習するコントラスト学習ベースのクラスタリング(CLC)を提案する。
完全なImageNetデータセットで53.4%の精度を実現し、既存のメソッドを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-06-08T07:15:13Z) - Mitigating shortage of labeled data using clustering-based active
learning with diversity exploration [3.312798619476657]
本稿ではクラスタリングに基づくアクティブラーニングフレームワーク,すなわちクラスタリングに基づくサンプリングを用いたアクティブラーニングを提案する。
重なり合うクラスを分類する学習性能を向上させるために、クラスタ境界に基づくサンプルクエリ手順が導入された。
論文 参考訳(メタデータ) (2022-07-06T20:53:28Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - LSEC: Large-scale spectral ensemble clustering [8.545202841051582]
本稿では,効率と効率のバランスを良くするために,大規模スペクトルアンサンブルクラスタリング(LSEC)手法を提案する。
LSEC法は既存のアンサンブルクラスタリング法よりも計算複雑性が低い。
論文 参考訳(メタデータ) (2021-06-18T00:42:03Z) - Variational Auto Encoder Gradient Clustering [0.0]
近年,ディープニューラルネットワークモデルを用いたクラスタリングが広く研究されている。
本稿では、より良いクラスタリングを実現するために確率関数勾配上昇を使用してデータを処理する方法を検討する。
DBSCANクラスタリングアルゴリズムに基づいて,データに適したクラスタ数を調べるための簡便かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2021-05-11T08:00:36Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z) - Improving k-Means Clustering Performance with Disentangled Internal
Representations [0.0]
本稿では,オートエンコーダの学習遅延符号表現の絡み合いを最適化する,シンプルなアプローチを提案する。
提案手法を用いて,MNISTデータセットでは96.2%,Fashion-MNISTデータセットでは85.6%,EMNIST Balancedデータセットでは79.2%,ベースラインモデルでは79.2%であった。
論文 参考訳(メタデータ) (2020-06-05T11:32:34Z) - Clustering Binary Data by Application of Combinatorial Optimization
Heuristics [52.77024349608834]
本稿では,2値データのクラスタリング手法について検討し,まず,クラスタのコンパクトさを計測するアグリゲーション基準を定義した。
近隣地域と人口動態最適化メタヒューリスティックスを用いた5つの新しいオリジナル手法が導入された。
準モンテカルロ実験によって生成された16のデータテーブルから、L1の相似性と階層的クラスタリング、k-means(メドイドやPAM)の1つのアグリゲーションの比較を行う。
論文 参考訳(メタデータ) (2020-01-06T23:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。