論文の概要: Extracting Affect Aggregates from Longitudinal Social Media Data with Temporal Adapters for Large Language Models
- arxiv url: http://arxiv.org/abs/2409.17990v1
- Date: Thu, 26 Sep 2024 16:02:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 16:26:02.248130
- Title: Extracting Affect Aggregates from Longitudinal Social Media Data with Temporal Adapters for Large Language Models
- Title(参考訳): 時空間適応型大規模言語モデルを用いた縦断的ソーシャルメディアデータからの感情集約の抽出
- Authors: Georg Ahnert, Max Pellert, David Garcia, Markus Strohmaier,
- Abstract要約: 本稿では,ソーシャルメディアデータの経時的分析ツールとして,時整列大言語モデル(LLM)を提案する。
我々は、Llama 3 8BのテンポラルアダプタをイギリスのTwitterユーザーのパネルから全タイムラインで微調整し、確立したアンケートで感情と態度の縦断的な集計を抽出する。
- 参考スコア(独自算出の注目度): 1.9299251284637737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes temporally aligned Large Language Models (LLMs) as a tool for longitudinal analysis of social media data. We fine-tune Temporal Adapters for Llama 3 8B on full timelines from a panel of British Twitter users, and extract longitudinal aggregates of emotions and attitudes with established questionnaires. We validate our estimates against representative British survey data and find strong positive, significant correlations for several collective emotions. The obtained estimates are robust across multiple training seeds and prompt formulations, and in line with collective emotions extracted using a traditional classification model trained on labeled data. To the best of our knowledge, this is the first work to extend the analysis of affect in LLMs to a longitudinal setting through Temporal Adapters. Our work enables new approaches towards the longitudinal analysis of social media data.
- Abstract(参考訳): 本稿では,ソーシャルメディアデータの経時的分析ツールとして,時整列大言語モデル(LLM)を提案する。
我々は、Llama 3 8BのテンポラルアダプタをイギリスのTwitterユーザーのパネルから全タイムラインで微調整し、確立したアンケートで感情と態度の縦断的な集計を抽出する。
我々は、イギリスの代表的な調査データに対して評価を行い、いくつかの集団感情に対して、強い肯定的、有意な相関関係を見出した。
得られた推定値は、複数の訓練種子と迅速な定式化、およびラベル付きデータに基づいて訓練された伝統的な分類モデルを用いて抽出された集合的感情と整合する。
我々の知る限りでは、LLMにおける影響の分析をテンポラルアダプタを通して縦方向のセッティングに拡張する最初の試みである。
我々の研究は、ソーシャルメディアデータの長手解析への新たなアプローチを可能にする。
関連論文リスト
- P-MMEval: A Parallel Multilingual Multitask Benchmark for Consistent Evaluation of LLMs [84.24644520272835]
大きな言語モデル(LLM)は、翻訳、コード生成、推論といったタスクにまたがる様々な多言語機能を示す。
以前の評価では、その範囲を基本自然言語処理(NLP)や、独立した機能固有のタスクに制限することが多かった。
我々は、これらのベンチマークの有用性に関する以前の研究の監視に対処するため、大規模ベンチマークから利用可能な、合理的なベンチマークを選択するパイプラインを提案する。
本稿では,P-MMEvalを提案する。P-MMEval,P-MMEval,P-MMEval,P-MMEval,P-MMEval,P-MMEval。
論文 参考訳(メタデータ) (2024-11-14T01:29:36Z) - Analyzing Temporal Complex Events with Large Language Models? A Benchmark towards Temporal, Long Context Understanding [57.62275091656578]
時間的複合イベント(TCE)として、長い期間にわたって多くのニュース記事から構成される複合イベントについて述べる。
本稿では,Large Language Models (LLMs) を用いて,TCE内のイベントチェーンを系統的に抽出し,解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:42:17Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Long Context is Not Long at All: A Prospector of Long-Dependency Data for Large Language Models [13.091271774417867]
長期コンテキストモデリング機能は、様々なアプリケーションにおいて大きな言語モデル(LLM)にとって重要である。
データマイニングフレームワーク textbfProLong を提案する。
複数のベンチマークに関する総合的な実験は、ProLongが長い依存関係を持つドキュメントを効果的に識別していることを示している。
論文 参考訳(メタデータ) (2024-05-28T07:36:56Z) - Effective Long-Context Scaling of Foundation Models [90.57254298730923]
最大32,768個のトークンの効率的なコンテキストウィンドウをサポートする長文LLMを提示する。
我々のモデルは、ほとんどの通常のタスクにおいて一貫した改善を達成し、Llama 2よりも長いコンテキストタスクを大幅に改善します。
論文 参考訳(メタデータ) (2023-09-27T21:41:49Z) - Evaluation of Faithfulness Using the Longest Supported Subsequence [52.27522262537075]
本稿では,文脈によって支持される請求項の最長不連続性を計算し,機械生成テキストの忠実さを評価する新しい手法を提案する。
新しい人間アノテーション付きデータセットを使用して、モデルを微調整してLongest Supported Subsequence(LSS)を生成する。
提案手法は,我々のデータセットの忠実度に対する最先端のメトリクスよりも18%向上していることを示す。
論文 参考訳(メタデータ) (2023-08-23T14:18:44Z) - Tweet Insights: A Visualization Platform to Extract Temporal Insights
from Twitter [19.591692602304494]
本稿では,Twitterから得られた時系列データの大規模な収集について紹介する。
このデータは過去5年間に渡り、n-gramの頻度、類似性、感情、トピックの分布の変化を捉えている。
このデータの上に構築されたインタフェースは、時間的分析によって意味の変化を検出し、特徴付けることができる。
論文 参考訳(メタデータ) (2023-08-04T05:39:26Z) - Adapting Pretrained Text-to-Text Models for Long Text Sequences [39.62224414485055]
我々は、時系列入力に既存の事前訓練されたテキスト・ツー・テキスト・モデルを適用する。
長文QAタスク上での競合性能を実現するための長文モデルを構築した。
論文 参考訳(メタデータ) (2022-09-21T00:41:07Z) - Author Clustering and Topic Estimation for Short Texts [69.54017251622211]
同じ文書中の単語間の強い依存をモデル化することにより、遅延ディリクレ割当を拡張できる新しいモデルを提案する。
同時にユーザをクラスタ化し、ホック後のクラスタ推定の必要性を排除しています。
我々の手法は、短文で生じる問題に対する従来のアプローチよりも、-または----------- で機能する。
論文 参考訳(メタデータ) (2021-06-15T20:55:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。