論文の概要: Can LLMs Help Predict Elections? (Counter)Evidence from the World's Largest Democracy
- arxiv url: http://arxiv.org/abs/2405.07828v1
- Date: Mon, 13 May 2024 15:13:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 13:15:58.816254
- Title: Can LLMs Help Predict Elections? (Counter)Evidence from the World's Largest Democracy
- Title(参考訳): LLMは選挙予測に役立てられるか? (ボランティア)世界最大規模の民主主義の証拠
- Authors: Pratik Gujral, Kshitij Awaldhi, Navya Jain, Bhavuk Bhandula, Abhijnan Chakraborty,
- Abstract要約: ソーシャルメディアが世論の形成にどのように影響し、政治的結果に影響を及ぼすかについての研究は、一般的な調査分野である。
本稿では,Large Language Models (LLMs) の機能を活用し,ソーシャルメディアデータを調べ,選挙結果を予測する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 3.0915192911449796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The study of how social media affects the formation of public opinion and its influence on political results has been a popular field of inquiry. However, current approaches frequently offer a limited comprehension of the complex political phenomena, yielding inconsistent outcomes. In this work, we introduce a new method: harnessing the capabilities of Large Language Models (LLMs) to examine social media data and forecast election outcomes. Our research diverges from traditional methodologies in two crucial respects. First, we utilize the sophisticated capabilities of foundational LLMs, which can comprehend the complex linguistic subtleties and contextual details present in social media data. Second, we focus on data from X (Twitter) in India to predict state assembly election outcomes. Our method entails sentiment analysis of election-related tweets through LLMs to forecast the actual election results, and we demonstrate the superiority of our LLM-based method against more traditional exit and opinion polls. Overall, our research offers valuable insights into the unique dynamics of Indian politics and the remarkable impact of social media in molding public attitudes within this context.
- Abstract(参考訳): ソーシャルメディアが世論の形成にどのように影響し、政治的結果に影響を及ぼすかについての研究は、一般的な調査分野である。
しかし、現在のアプローチはしばしば複雑な政治現象の限定的な理解を提供し、矛盾した結果をもたらす。
本研究では,Large Language Models (LLMs) の機能を活用し,ソーシャルメディアデータの検証と選挙結果の予測を行う新しい手法を提案する。
我々の研究は従来の方法論から2つの重要な点において分かれている。
まず,ソーシャルメディアデータに存在する複雑な言語的微妙さと文脈的詳細を理解可能な基礎的LLMの高度な機能を利用する。
第2に、インドのX(Twitter)のデータに着目し、州議会選挙の結果を予測する。
提案手法では,選挙関連ツイートの感情分析を行い,選挙結果の予測を行うとともに,従来の出口・世論調査に対する LLM 手法の優位性を実証する。
全体として、我々の研究は、インド政治のユニークなダイナミクスと、この文脈における大衆の態度形成におけるソーシャルメディアの顕著な影響に関する貴重な洞察を提供する。
関連論文リスト
- Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Prediction of the 2023 Turkish Presidential Election Results Using
Social Media Data [0.5156484100374059]
我々は,従来の世論調査データとソーシャルメディアデータを組み合わせることで,トルコにおける2023年の選挙に参加する政党の投票シェアを予測することを目的とする。
私たちのアプローチは、コンテンツではなく、ソーシャルメディアのインタラクションの数を考慮したボリュームベースのアプローチです。
論文 参考訳(メタデータ) (2023-05-28T13:17:51Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - The Face of Populism: Examining Differences in Facial Emotional
Expressions of Political Leaders Using Machine Learning [57.70351255180495]
深層学習に基づくコンピュータビジョンのアルゴリズムを、15カ国の政治指導者を描いた220本のYouTubeビデオのサンプルに適用する。
ポピュリスト・レトリックの度合いが異なるリーダー群間での否定的感情の平均スコアの統計的に有意な差を観察した。
論文 参考訳(メタデータ) (2023-04-19T18:32:49Z) - Design and analysis of tweet-based election models for the 2021 Mexican
legislative election [55.41644538483948]
選挙日前の6ヶ月の間に、1500万件の選挙関連ツイートのデータセットを使用します。
地理的属性を持つデータを用いたモデルが従来のポーリング法よりも精度と精度で選挙結果を決定することがわかった。
論文 参考訳(メタデータ) (2023-01-02T12:40:05Z) - Fast Few shot Self-attentive Semi-supervised Political Inclination
Prediction [12.472629584751509]
政策立案者やジャーナリストにとって、特定の場所にいる人々の政治的傾向を理解するために、ソーシャルメディア上でオンライン世論調査を作成することは、今やますます一般的になっている。
我々は、その目的をさらに進めるために、政治的傾き検出のための自己注意型半教師付きフレームワークを導入する。
資源制約のある設定でも,モデルは非常に効率的であることがわかった。
論文 参考訳(メタデータ) (2022-09-21T12:07:16Z) - Inferring Political Preferences from Twitter [0.0]
ソーシャルメディアの政治的センチメント分析は、政治ストラテジストが政党や候補者のパフォーマンスを精査するのに役立つ。
選挙期間中、ソーシャルネットワークはブログ、チャット、討論、政党や政治家の展望に関する議論で溢れている。
本研究では、従来の機械学習を用いて、テキスト分類問題としてモデル化することで、ツイートに存在する政治的意見の傾きを特定することを選んだ。
論文 参考訳(メタデータ) (2020-07-21T05:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。