論文の概要: From Millions of Tweets to Actionable Insights: Leveraging LLMs for User Profiling
- arxiv url: http://arxiv.org/abs/2505.06184v1
- Date: Fri, 09 May 2025 16:51:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.346504
- Title: From Millions of Tweets to Actionable Insights: Leveraging LLMs for User Profiling
- Title(参考訳): 何百万ものツイートからアクション可能なインサイト:ユーザプロファイリングにLLMを活用する
- Authors: Vahid Rahimzadeh, Ali Hamzehpour, Azadeh Shakery, Masoud Asadpour,
- Abstract要約: ドメイン定義文を活用する新しい大規模言語モデル(LLM)ベースのアプローチを導入する。
提案手法は,解釈可能な自然言語ユーザプロファイルを生成し,広範囲なユーザデータをスケールに集約する。
実験の結果,本手法は最先端のLCM法および従来手法よりも9.8%優れていた。
- 参考スコア(独自算出の注目度): 3.304341919932024
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Social media user profiling through content analysis is crucial for tasks like misinformation detection, engagement prediction, hate speech monitoring, and user behavior modeling. However, existing profiling techniques, including tweet summarization, attribute-based profiling, and latent representation learning, face significant limitations: they often lack transferability, produce non-interpretable features, require large labeled datasets, or rely on rigid predefined categories that limit adaptability. We introduce a novel large language model (LLM)-based approach that leverages domain-defining statements, which serve as key characteristics outlining the important pillars of a domain as foundations for profiling. Our two-stage method first employs semi-supervised filtering with a domain-specific knowledge base, then generates both abstractive (synthesized descriptions) and extractive (representative tweet selections) user profiles. By harnessing LLMs' inherent knowledge with minimal human validation, our approach is adaptable across domains while reducing the need for large labeled datasets. Our method generates interpretable natural language user profiles, condensing extensive user data into a scale that unlocks LLMs' reasoning and knowledge capabilities for downstream social network tasks. We contribute a Persian political Twitter (X) dataset and an LLM-based evaluation framework with human validation. Experimental results show our method significantly outperforms state-of-the-art LLM-based and traditional methods by 9.8%, demonstrating its effectiveness in creating flexible, adaptable, and interpretable user profiles.
- Abstract(参考訳): ソーシャルメディアのユーザプロファイリングは、誤情報検出、エンゲージメント予測、ヘイトスピーチモニタリング、ユーザー行動モデリングといったタスクには不可欠である。
しかし、ツイート要約、属性ベースのプロファイリング、潜在表現学習などの既存のプロファイリング技術は、トランスファービリティの欠如、非解釈可能な機能の生成、大きなラベル付きデータセットの要求、適応性を制限する厳格な事前定義されたカテゴリへの依存など、重大な制限に直面している。
本稿では,ドメイン定義文を利用した新しい大規模言語モデル(LLM)に基づくアプローチを提案する。
まず、ドメイン固有の知識ベースを用いた半教師付きフィルタリングを行い、その後、抽象的(合成記述)と抽出的(表現的ツイート選択)の両方のユーザプロファイルを生成する。
LLMの持つ知識を最小限の人間による検証で活用することにより、我々のアプローチは、大規模ラベル付きデータセットの必要性を低減しつつ、ドメイン間で適応可能である。
提案手法は,解釈可能な自然言語ユーザプロファイルを生成し,広範囲なユーザデータをスケールに集約することで,下流のソーシャルネットワークタスクに対するLLMの推論と知識機能を解放する。
ペルシャの政治Twitter(X)データセットとLLMに基づく評価フレームワークを人間による検証で提供する。
実験の結果,従来のLCM法および従来の手法を9.8%向上させ,柔軟性,適応性,解釈可能なユーザプロファイルを作成する上での有効性を示した。
関連論文リスト
- MoRE-LLM: Mixture of Rule Experts Guided by a Large Language Model [54.14155564592936]
大規模言語モデル(MoRE-LLM)によるルールエキスパートの混合を提案する。
MoRE-LLMは、トレーニング中の局所的なルールベースのサロゲートの発見と、それらの分類タスクの利用を操縦する。
LLMはルールを修正・コンテキスト化することで、ルールのドメイン知識の整合性を高める役割を担います。
論文 参考訳(メタデータ) (2025-03-26T11:09:21Z) - LLM-Aided Customizable Profiling of Code Data Based On Programming Language Concepts [1.480144196276276]
この作業は、大規模言語モデル(コード-LLM)のコードデータセットのコンテキストにおいて、特にプロファイリングに対処する。
プログラミング言語の概念の観点からコードデータセットを特徴づけることで、より良い洞察とターゲットデータキュレーションが可能になる。
論文 参考訳(メタデータ) (2025-03-19T11:01:00Z) - Latent Factor Models Meets Instructions: Goal-conditioned Latent Factor Discovery without Task Supervision [50.45597801390757]
Instruct-LFはゴール指向の潜在因子発見システムである。
命令フォロー機能と統計モデルを統合して、ノイズの多いデータセットを処理する。
論文 参考訳(メタデータ) (2025-02-21T02:03:08Z) - Large Language Models Struggle to Describe the Haystack without Human Help: Human-in-the-loop Evaluation of LLMs [41.08246070544371]
本研究では,教師なし,教師なしの大規模言語モデルを用いて,ユーザが獲得する知識を計測する。
LLMは人間の助けなしに大規模なコーパスの干ばつ、特にドメイン固有のデータを記述するのに苦労している。
論文 参考訳(メタデータ) (2025-02-20T17:19:41Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - Learning Beyond the Surface: How Far Can Continual Pre-Training with LoRA Enhance LLMs' Domain-Specific Insight Learning? [4.390998479503661]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著なパフォーマンスを示している。
しかし、ドメイン固有のデータセットからより深い洞察を抽出し、内部化する能力は、まだ探索されていない。
本研究は, インサイトラーニングにおけるLCMの能力を高めるために, 連続的事前学習がいかに有効かを検討する。
論文 参考訳(メタデータ) (2025-01-29T18:40:32Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Predicting User Stances from Target-Agnostic Information using Large Language Models [6.9337465525334405]
ターゲットに依存しないソーシャルメディア投稿のコレクションから,ターゲットに対するユーザの姿勢を予測できるLarge Language Models(LLMs)機能について検討した。
論文 参考訳(メタデータ) (2024-09-22T11:21:16Z) - Prompt-based Personality Profiling: Reinforcement Learning for Relevance Filtering [8.20929362102942]
著者プロファイルは、共有するコンテンツを分析して個人の特徴を推測するタスクである。
本稿では,関係のないコンテンツと関係のないコンテンツとを区別することを目的とした著者プロファイリング手法を提案し,それに続いて,関連データのみを用いて実際のユーザプロファイリングを行う。
2つのTwitterコーパスにおける5つの人格特性予測手法の評価を行った。
論文 参考訳(メタデータ) (2024-09-06T08:43:10Z) - Evaluating LLM-based Personal Information Extraction and Countermeasures [63.91918057570824]
大規模言語モデル(LLM)に基づく個人情報抽出をベンチマークすることができる。
LLMは攻撃者によって誤用され、個人プロファイルから様々な個人情報を正確に抽出する。
プロンプトインジェクションは強力なLDMベースの攻撃に対して防御し、攻撃をより効果的でない従来の攻撃に還元する。
論文 参考訳(メタデータ) (2024-08-14T04:49:30Z) - Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation [50.837277466987345]
我々は、推奨のために大規模言語モデル(LLM)の分野に焦点を当てる。
ユーザ毎に独立したLoRAを管理するPersonalized LoRAモジュールを組み込んだRecLoRAを提案する。
また、Few2Many Learning Strategyを設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
論文 参考訳(メタデータ) (2024-08-07T04:20:28Z) - LLM Processes: Numerical Predictive Distributions Conditioned on Natural Language [35.84181171987974]
我々のゴールは、数値データを処理し、任意の場所で確率的予測を行うレグレッションモデルを構築することである。
まず、大規模言語モデルから明示的で一貫性のある数値予測分布を抽出する戦略を探求する。
本研究では,テキストを数値予測に組み込む能力を示し,予測性能を改善し,定性的な記述を反映した定量的な構造を与える。
論文 参考訳(メタデータ) (2024-05-21T15:13:12Z) - Sample Efficient Preference Alignment in LLMs via Active Exploration [63.84454768573154]
良い政策を最も効率的に特定するために、人間のフィードバックを得るコンテキストをしばしば選択できるという事実を活用します。
本稿では,データを効率的に選択する能動的探索アルゴリズムを提案する。
提案手法は,複数の言語モデルと4つの実世界のデータセットに対する人間の嗜好の限られたサンプルを用いて,ベースラインよりも優れる。
論文 参考訳(メタデータ) (2023-12-01T00:54:02Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。