論文の概要: LLMTaxo: Leveraging Large Language Models for Constructing Taxonomy of Factual Claims from Social Media
- arxiv url: http://arxiv.org/abs/2504.12325v2
- Date: Mon, 20 Oct 2025 02:21:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.278225
- Title: LLMTaxo: Leveraging Large Language Models for Constructing Taxonomy of Factual Claims from Social Media
- Title(参考訳): LLMTaxo:ソーシャルメディアからの事実的クレームの分類構築のための大規模言語モデルの導入
- Authors: Haiqi Zhang, Zhengyuan Zhu, Zeyu Zhang, Chengkai Li,
- Abstract要約: 本稿では,ソーシャルメディアからの事実主張の冗長性の自動構築に大規模言語モデルを活用する新しいフレームワークであるLLMTaxoを紹介する。
結果として生じる階層構造は、情報アクセシビリティを大幅に低減し、改善する。
3つの多様なデータセットに対して行われた評価は、LLMTaxoが明確で一貫性があり、包括的であることを示す。
- 参考スコア(独自算出の注目度): 13.898378166582154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid expansion of content on social media platforms, analyzing and comprehending online discourse has become increasingly complex. This paper introduces LLMTaxo, a novel framework leveraging large language models for the automated construction of taxonomies of factual claims from social media by generating topics at multiple levels of granularity. The resulting hierarchical structure significantly reduces redundancy and improves information accessibility. We also propose dedicated taxonomy evaluation metrics to enable comprehensive assessment. Evaluations conducted on three diverse datasets demonstrate LLMTaxo's effectiveness in producing clear, coherent, and comprehensive taxonomies. Among the evaluated models, GPT-4o mini consistently outperforms others across most metrics. The framework's flexibility and low reliance on manual intervention underscore its potential for broad applicability.
- Abstract(参考訳): ソーシャルメディアプラットフォーム上のコンテンツが急速に拡大するにつれ、オンライン談話の分析と理解がますます複雑化している。
本稿では,多段階の粒度でトピックを生成することで,ソーシャルメディアから事実主張の分類体系を自動構築する上で,大規模言語モデルを活用した新しいフレームワークであるLLMTaxoを紹介する。
結果として生じる階層構造は冗長性を著しく低減し、情報アクセシビリティを向上させる。
また、包括的評価を可能にするため、専門的な分類評価指標も提案する。
3つの多様なデータセットで評価した結果、LLMTaxoは明確で一貫性があり、包括的な分類学を創出する効果を示した。
評価されたモデルの中で、GPT-4o miniは、ほとんどの指標で一貫して他よりも優れています。
フレームワークの柔軟性と手作業による介入への信頼の低さは、幅広い適用可能性の可能性を浮き彫りにした。
関連論文リスト
- Leveraging Large Language Models for Automated Definition Extraction with TaxoMatic A Case Study on Media Bias [6.581006293385288]
TaxoMaticは、学術文献からの定義抽出を自動化するフレームワークである。
手動で評価された2,398項目のデータセットに基づいて分析し、Claude-3-sonnetは関連分類と定義抽出の両方において最良の結果を得た。
論文 参考訳(メタデータ) (2025-04-01T01:47:16Z) - Graph Foundation Models for Recommendation: A Comprehensive Survey [55.70529188101446]
大規模言語モデル(LLM)は自然言語を処理し、理解するために設計されており、どちらも非常に効果的で広く採用されている。
最近の研究はグラフ基礎モデル(GFM)に焦点を当てている。
GFM は GNN と LLM の強みを統合し,複雑な RS 問題をより効率的にモデル化する。
論文 参考訳(メタデータ) (2025-02-12T12:13:51Z) - Bridging the Evaluation Gap: Leveraging Large Language Models for Topic Model Evaluation [0.0]
本研究では,Large Language Models (LLMs) を用いた科学文献における動的に進化するトピックの自動評価のための枠組みを提案する。
提案手法は,専門家のアノテータや狭義の統計指標に大きく依存することなく,コヒーレンス,反復性,多様性,トピック文書のアライメントといった重要な品質次元を測定するためにLLMを利用する。
論文 参考訳(メタデータ) (2025-02-11T08:23:56Z) - Personalized Multimodal Large Language Models: A Survey [127.9521218125761]
マルチモーダル大言語モデル(MLLM)は、最先端の性能と複数のデータモダリティを統合する能力により、ますます重要になっている。
本稿では,パーソナライズされたマルチモーダルな大規模言語モデルに関する包括的調査を行い,そのアーキテクチャ,トレーニング方法,アプリケーションに焦点をあてる。
論文 参考訳(メタデータ) (2024-12-03T03:59:03Z) - A Survey of Small Language Models [104.80308007044634]
小言語モデル (SLM) は, 計算資源の最小化による言語タスクの効率化と性能の向上により, ますます重要になってきている。
本稿では,SLMのアーキテクチャ,トレーニング技術,モデル圧縮技術に着目した総合的な調査を行う。
論文 参考訳(メタデータ) (2024-10-25T23:52:28Z) - Towards Realistic Synthetic User-Generated Content: A Scaffolding Approach to Generating Online Discussions [17.96479268328824]
ユーザ生成コンテンツの現実的で大規模な合成データセット作成の実現可能性について検討する。
本稿では,議論スレッドのコンパクトな表現のアイデアに基づく多段階生成プロセスを提案する。
論文 参考訳(メタデータ) (2024-08-15T18:43:50Z) - Analysis of Multidomain Abstractive Summarization Using Salience
Allocation [2.6880540371111445]
季節は、塩分割り当て技術を活用して要約を強化するために設計されたモデルである。
本稿では、ROUGE、METEOR、BERTScore、MoverScoreなどの様々な評価指標を用いて、抽象的な要約を生成するために微調整されたモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-02-19T08:52:12Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。