論文の概要: Large Language Model and Formal Concept Analysis: a comparative study for Topic Modeling
- arxiv url: http://arxiv.org/abs/2602.01933v1
- Date: Mon, 02 Feb 2026 10:35:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.082988
- Title: Large Language Model and Formal Concept Analysis: a comparative study for Topic Modeling
- Title(参考訳): 大規模言語モデルと形式的概念分析 : トピックモデリングの比較研究
- Authors: Fabrice Boissier, Monica Sen, Irina Rychkova,
- Abstract要約: 大規模言語モデル(LLM)は現在、テキスト処理における主要なトレンドである。
LLM と形式概念解析 (FCA) を比較し、トピックモデリング分野におけるそれらの強みと弱みをよりよく理解する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Topic modeling is a research field finding increasing applications: historically from document retrieving, to sentiment analysis and text summarization. Large Language Models (LLM) are currently a major trend in text processing, but few works study their usefulness for this task. Formal Concept Analysis (FCA) has recently been presented as a candidate for topic modeling, but no real applied case study has been conducted. In this work, we compare LLM and FCA to better understand their strengths and weakneses in the topic modeling field. FCA is evaluated through the CREA pipeline used in past experiments on topic modeling and visualization, whereas GPT-5 is used for the LLM. A strategy based on three prompts is applied with GPT-5 in a zero-shot setup: topic generation from document batches, merging of batch results into final topics, and topic labeling. A first experiment reuses the teaching materials previously used to evaluate CREA, while a second experiment analyzes 40 research articles in information systems to compare the extracted topics with the underling subfields.
- Abstract(参考訳): トピック・モデリングは、歴史的に文書検索から感情分析、テキスト要約に至るまで、応用が増加している研究分野である。
大規模言語モデル(LLM)は現在、テキスト処理において主要なトレンドとなっているが、このタスクの有用性を研究する研究はほとんどない。
フォーマル・コンセプト・アナリティクス(FCA)は近年トピック・モデリングの候補として提示されているが、実際のケーススタディは行われていない。
本研究では, LLM と FCA を比較し, トピックモデリング分野の強みと弱みをよりよく理解する。
FCAは、過去のトピックモデリングと可視化の実験で使われたCREAパイプラインを通じて評価され、GPT-5はLLMで使用される。
ゼロショット設定では、3つのプロンプトに基づく戦略がGPT-5で適用され、文書バッチからのトピック生成、バッチ結果の最終的なトピックへのマージ、トピックラベリングである。
第1の実験では、以前CREAの評価に使用されていた教材を再利用し、第2の実験では、情報システムにおける40の論文を分析し、抽出したトピックと下位のサブフィールドを比較した。
関連論文リスト
- Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - Interactive Topic Models with Optimal Transport [75.26555710661908]
ラベル名監視型トピックモデリングのためのアプローチとして,EdTMを提案する。
EdTMは、LM/LLMベースのドキュメントトピック親和性を活用しながら、代入問題としてのトピックモデリングをモデル化する。
論文 参考訳(メタデータ) (2024-06-28T13:57:27Z) - Large Language Models Offer an Alternative to the Traditional Approach of Topic Modelling [0.9095496510579351]
広範テキストコーパス内の話題を明らかにする代替手段として,大規模言語モデル (LLM) の未解決の可能性について検討する。
本研究は, 適切なプロンプトを持つLCMが, トピックのタイトルを生成でき, トピックを洗練, マージするためのガイドラインに固執する上で, 有効な代替手段として目立たせることを示唆している。
論文 参考訳(メタデータ) (2024-03-24T17:39:51Z) - Exploring the Power of Topic Modeling Techniques in Analyzing Customer
Reviews: A Comparative Analysis [0.0]
大量のテキストデータをオンラインで分析するために、機械学習と自然言語処理アルゴリズムがデプロイされている。
本研究では,顧客レビューに特化して用いられる5つのトピックモデリング手法について検討・比較する。
以上の結果から,BERTopicはより意味のあるトピックを抽出し,良好な結果を得ることができた。
論文 参考訳(メタデータ) (2023-08-19T08:18:04Z) - Large Language Models in the Workplace: A Case Study on Prompt
Engineering for Job Type Classification [58.720142291102135]
本研究では,実環境における職種分類の課題について検討する。
目標は、英語の求職が卒業生やエントリーレベルの地位に適切かどうかを判断することである。
論文 参考訳(メタデータ) (2023-03-13T14:09:53Z) - A Data-driven Latent Semantic Analysis for Automatic Text Summarization
using LDA Topic Modelling [0.0]
本研究では、トピックモデリングを行うために使用されるLDA(Latent Dirichlet Allocation)アプローチを提案する。
可視化は主要なトピックを概観し、個々のトピックに対する深い意味を許容し、帰結させる。
その結果,処理文書中の話題の出現確率を考慮し,純粋にランク付けされた用語が示唆された。
論文 参考訳(メタデータ) (2022-07-23T11:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。