論文の概要: Moving Beyond LDA: A Comparison of Unsupervised Topic Modelling Techniques for Qualitative Data Analysis of Online Communities
- arxiv url: http://arxiv.org/abs/2412.14486v1
- Date: Thu, 19 Dec 2024 03:19:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:29:14.980131
- Title: Moving Beyond LDA: A Comparison of Unsupervised Topic Modelling Techniques for Qualitative Data Analysis of Online Communities
- Title(参考訳): LDAを超えて進む:オンラインコミュニティの質的データ分析のための教師なしトピックモデリング手法の比較
- Authors: Amandeep Kaur, James R. Wallace,
- Abstract要約: ソーシャルメディアは質的な研究者にとって豊かで影響力のある情報源となっている。
トピックモデリングのような計算技術は、ソーシャルメディアコンテンツの量と多様性を管理するのに役立ちます。
本稿では,高度大規模言語モデル(LLM)に基づくトピックモデリング技術であるBERTopicが,ソーシャルメディアの質的データ分析をどのようにサポートするかを検討する。
- 参考スコア(独自算出の注目度): 5.288687501686693
- License:
- Abstract: Social media constitutes a rich and influential source of information for qualitative researchers. Although computational techniques like topic modelling assist with managing the volume and diversity of social media content, qualitative researcher's lack of programming expertise creates a significant barrier to their adoption. In this paper we explore how BERTopic, an advanced Large Language Model (LLM)-based topic modelling technique, can support qualitative data analysis of social media. We conducted interviews and hands-on evaluations in which qualitative researchers compared topics from three modelling techniques: LDA, NMF, and BERTopic. BERTopic was favoured by 8 of 12 participants for its ability to provide detailed, coherent clusters for deeper understanding and actionable insights. Participants also prioritised topic relevance, logical organisation, and the capacity to reveal unexpected relationships within the data. Our findings underscore the potential of LLM-based techniques for supporting qualitative analysis.
- Abstract(参考訳): ソーシャルメディアは質的な研究者にとって豊かで影響力のある情報源となっている。
トピックモデリングのような計算技術は、ソーシャルメディアコンテンツの量と多様性を管理するのに役立つが、定性的な研究者のプログラミングの専門知識の欠如は、彼らの採用にとって大きな障壁となっている。
本稿では,高度大規模言語モデル(LLM)に基づくトピックモデリング技術であるBERTopicが,ソーシャルメディアの質的データ分析をどのようにサポートするかを検討する。
質的研究者がLDA, NMF, BERTopicの3つのモデリング手法からトピックを比較したインタビューおよびハンズオン評価を行った。
BERTopicは、12人中8人が、より深い理解と行動可能な洞察のために、詳細で一貫性のあるクラスタを提供する能力で好んだ。
参加者はまた、トピックの関連性、論理的組織、データ内の予期せぬ関係を明らかにする能力も優先した。
質的分析を支援するLLM技術の可能性について検討した。
関連論文リスト
- Large Language Model for Qualitative Research -- A Systematic Mapping Study [3.302912592091359]
先進的な生成AIを駆使した大規模言語モデル(LLM)がトランスフォーメーションツールとして登場した。
本研究は, LLMを用いた定性的研究に関する文献を体系的にマッピングする。
LLMは様々な分野にまたがって利用されており、プロセスの自動化の可能性を示している。
論文 参考訳(メタデータ) (2024-11-18T21:28:00Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Qualitative Insights Tool (QualIT): LLM Enhanced Topic Modeling [1.0949553365997655]
本稿では,大規模言語モデルと既存のクラスタリングに基づくトピックモデリングアプローチを統合する新しいアプローチを提案する。
我々は,ニュース記事の大規模コーパスに対するアプローチを評価し,トピックコヒーレンスとトピックの多様性の大幅な向上を実証した。
論文 参考訳(メタデータ) (2024-09-24T00:09:41Z) - Reconciling Methodological Paradigms: Employing Large Language Models as Novice Qualitative Research Assistants in Talent Management Research [1.0949553365997655]
本研究では,RAGに基づくLarge Language Models (LLMs) を用いた面接文の解析手法を提案する。
この研究の斬新さは、初歩的な研究助手として機能するLSMによって強化された研究調査をストラテジー化することにある。
以上の結果から, LLM拡張RAGアプローチは, 手動で生成したトピックと比較して, 興味のあるトピックを抽出できることが示唆された。
論文 参考訳(メタデータ) (2024-08-20T17:49:51Z) - Exploring the Potential of Human-LLM Synergy in Advancing Qualitative Analysis: A Case Study on Mental-Illness Stigma [6.593116883521213]
大規模言語モデル(LLM)は、既存のスキーム内で定性的なコーディングを行うことができるが、協調的な人間-LLM発見の可能性はまだ探索されていない。
我々は,人間とLLMの協調パラダイムを活用して,概念化を促進し,質的研究を促進する新しい手法であるCHALETを提案する。
論文 参考訳(メタデータ) (2024-05-09T13:27:22Z) - QuaLLM: An LLM-based Framework to Extract Quantitative Insights from Online Forums [10.684484559041284]
本研究は,オンラインフォーラム上でテキストデータから量的洞察を分析し,抽出する新しいフレームワークであるQuaLLMを紹介する。
このフレームワークを適用して、Redditの2つのライドシェアワーカーコミュニティからの100万以上のコメントを分析しました。
AIとアルゴリズムのプラットフォーム決定に関する重要な労働者の懸念を明らかにし、労働者の洞察に関する規制の要求に応えました。
論文 参考訳(メタデータ) (2024-05-08T18:20:03Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Image Quality Assessment in the Modern Age [53.19271326110551]
本チュートリアルは、画像品質評価(IQA)の基礎的理論、方法論、現状の進歩を聴衆に提供する。
まず,視覚刺激を適切に選択する方法に着目し,主観的品質評価手法を再考する。
手書きのエンジニアリングと(深い)学習ベースの手法の両方をカバーします。
論文 参考訳(メタデータ) (2021-10-19T02:38:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。