論文の概要: From Millions of Tweets to Actionable Insights: Leveraging LLMs for User Profiling
- arxiv url: http://arxiv.org/abs/2505.06184v1
- Date: Fri, 09 May 2025 16:51:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.346504
- Title: From Millions of Tweets to Actionable Insights: Leveraging LLMs for User Profiling
- Title(参考訳): 何百万ものツイートからアクション可能なインサイト:ユーザプロファイリングにLLMを活用する
- Authors: Vahid Rahimzadeh, Ali Hamzehpour, Azadeh Shakery, Masoud Asadpour,
- Abstract要約: ドメイン定義文を活用する新しい大規模言語モデル(LLM)ベースのアプローチを導入する。
提案手法は,解釈可能な自然言語ユーザプロファイルを生成し,広範囲なユーザデータをスケールに集約する。
実験の結果,本手法は最先端のLCM法および従来手法よりも9.8%優れていた。
- 参考スコア(独自算出の注目度): 3.304341919932024
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Social media user profiling through content analysis is crucial for tasks like misinformation detection, engagement prediction, hate speech monitoring, and user behavior modeling. However, existing profiling techniques, including tweet summarization, attribute-based profiling, and latent representation learning, face significant limitations: they often lack transferability, produce non-interpretable features, require large labeled datasets, or rely on rigid predefined categories that limit adaptability. We introduce a novel large language model (LLM)-based approach that leverages domain-defining statements, which serve as key characteristics outlining the important pillars of a domain as foundations for profiling. Our two-stage method first employs semi-supervised filtering with a domain-specific knowledge base, then generates both abstractive (synthesized descriptions) and extractive (representative tweet selections) user profiles. By harnessing LLMs' inherent knowledge with minimal human validation, our approach is adaptable across domains while reducing the need for large labeled datasets. Our method generates interpretable natural language user profiles, condensing extensive user data into a scale that unlocks LLMs' reasoning and knowledge capabilities for downstream social network tasks. We contribute a Persian political Twitter (X) dataset and an LLM-based evaluation framework with human validation. Experimental results show our method significantly outperforms state-of-the-art LLM-based and traditional methods by 9.8%, demonstrating its effectiveness in creating flexible, adaptable, and interpretable user profiles.
- Abstract(参考訳): ソーシャルメディアのユーザプロファイリングは、誤情報検出、エンゲージメント予測、ヘイトスピーチモニタリング、ユーザー行動モデリングといったタスクには不可欠である。
しかし、ツイート要約、属性ベースのプロファイリング、潜在表現学習などの既存のプロファイリング技術は、トランスファービリティの欠如、非解釈可能な機能の生成、大きなラベル付きデータセットの要求、適応性を制限する厳格な事前定義されたカテゴリへの依存など、重大な制限に直面している。
本稿では,ドメイン定義文を利用した新しい大規模言語モデル(LLM)に基づくアプローチを提案する。
まず、ドメイン固有の知識ベースを用いた半教師付きフィルタリングを行い、その後、抽象的(合成記述)と抽出的(表現的ツイート選択)の両方のユーザプロファイルを生成する。
LLMの持つ知識を最小限の人間による検証で活用することにより、我々のアプローチは、大規模ラベル付きデータセットの必要性を低減しつつ、ドメイン間で適応可能である。
提案手法は,解釈可能な自然言語ユーザプロファイルを生成し,広範囲なユーザデータをスケールに集約することで,下流のソーシャルネットワークタスクに対するLLMの推論と知識機能を解放する。
ペルシャの政治Twitter(X)データセットとLLMに基づく評価フレームワークを人間による検証で提供する。
実験の結果,従来のLCM法および従来の手法を9.8%向上させ,柔軟性,適応性,解釈可能なユーザプロファイルを作成する上での有効性を示した。
関連論文リスト
- LLM-Aided Customizable Profiling of Code Data Based On Programming Language Concepts [1.480144196276276]
この作業は、大規模言語モデル(コード-LLM)のコードデータセットのコンテキストにおいて、特にプロファイリングに対処する。
プログラミング言語の概念の観点からコードデータセットを特徴づけることで、より良い洞察とターゲットデータキュレーションが可能になる。
論文 参考訳(メタデータ) (2025-03-19T11:01:00Z) - Latent Factor Models Meets Instructions: Goal-conditioned Latent Factor Discovery without Task Supervision [50.45597801390757]
Instruct-LFはゴール指向の潜在因子発見システムである。
命令フォロー機能と統計モデルを統合して、ノイズの多いデータセットを処理する。
論文 参考訳(メタデータ) (2025-02-21T02:03:08Z) - Large Language Models Struggle to Describe the Haystack without Human Help: Human-in-the-loop Evaluation of LLMs [41.08246070544371]
本研究では,教師なし,教師なしの大規模言語モデルを用いて,ユーザが獲得する知識を計測する。
LLMは人間の助けなしに大規模なコーパスの干ばつ、特にドメイン固有のデータを記述するのに苦労している。
論文 参考訳(メタデータ) (2025-02-20T17:19:41Z) - Learning Beyond the Surface: How Far Can Continual Pre-Training with LoRA Enhance LLMs' Domain-Specific Insight Learning? [4.390998479503661]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著なパフォーマンスを示している。
しかし、ドメイン固有のデータセットからより深い洞察を抽出し、内部化する能力は、まだ探索されていない。
本研究は, インサイトラーニングにおけるLCMの能力を高めるために, 連続的事前学習がいかに有効かを検討する。
論文 参考訳(メタデータ) (2025-01-29T18:40:32Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Prompt-based Personality Profiling: Reinforcement Learning for Relevance Filtering [8.20929362102942]
著者プロファイルは、共有するコンテンツを分析して個人の特徴を推測するタスクである。
本稿では,関係のないコンテンツと関係のないコンテンツとを区別することを目的とした著者プロファイリング手法を提案し,それに続いて,関連データのみを用いて実際のユーザプロファイリングを行う。
2つのTwitterコーパスにおける5つの人格特性予測手法の評価を行った。
論文 参考訳(メタデータ) (2024-09-06T08:43:10Z) - Evaluating LLM-based Personal Information Extraction and Countermeasures [63.91918057570824]
大規模言語モデル(LLM)に基づく個人情報抽出をベンチマークすることができる。
LLMは攻撃者によって誤用され、個人プロファイルから様々な個人情報を正確に抽出する。
プロンプトインジェクションは強力なLDMベースの攻撃に対して防御し、攻撃をより効果的でない従来の攻撃に還元する。
論文 参考訳(メタデータ) (2024-08-14T04:49:30Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。