論文の概要: Who Attacks, and Why? Using LLMs to Identify Negative Campaigning in 18M Tweets across 19 Countries
- arxiv url: http://arxiv.org/abs/2507.17636v1
- Date: Wed, 23 Jul 2025 16:02:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:15.072874
- Title: Who Attacks, and Why? Using LLMs to Identify Negative Campaigning in 18M Tweets across 19 Countries
- Title(参考訳): LLMを使って19カ国18万ツイートの否定的キャンペーンを特定
- Authors: Victor Hartman, Petter Törnberg,
- Abstract要約: 本研究では,ゼロショット大言語モデルについて,否定的キャンペーンの言語横断的分類の新たなアプローチとして紹介する。
10言語でのベンチマークデータセットを用いて、LLMがネイティブな人間のコーダと同等の性能を発揮することを示す。
第二に、この新たな手法を利用して、これまでで最大の否定的キャンペーンのクロスナショナルな研究を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Negative campaigning is a central feature of political competition, yet empirical research has been limited by the high cost and limited scalability of existing classification methods. This study makes two key contributions. First, it introduces zero-shot Large Language Models (LLMs) as a novel approach for cross-lingual classification of negative campaigning. Using benchmark datasets in ten languages, we demonstrate that LLMs achieve performance on par with native-speaking human coders and outperform conventional supervised machine learning approaches. Second, we leverage this novel method to conduct the largest cross-national study of negative campaigning to date, analyzing 18 million tweets posted by parliamentarians in 19 European countries between 2017 and 2022. The results reveal consistent cross-national patterns: governing parties are less likely to use negative messaging, while ideologically extreme and populist parties -- particularly those on the radical right -- engage in significantly higher levels of negativity. These findings advance our understanding of how party-level characteristics shape strategic communication in multiparty systems. More broadly, the study demonstrates the potential of LLMs to enable scalable, transparent, and replicable research in political communication across linguistic and cultural contexts.
- Abstract(参考訳): 否定的なキャンペーンは政治的競争の中心的な特徴であるが、実証的研究は、既存の分類手法の高コストと限定的な拡張性によって制限されてきた。
この研究は2つの重要な貢献をする。
まず,ゼロショット大言語モデル (LLM) を,否定的キャンペーンの言語横断的分類の新たなアプローチとして導入する。
10言語でのベンチマークデータセットを用いて、LLMがネイティブな人間のコーダと同等のパフォーマンスを達成し、従来の教師付き機械学習アプローチよりも優れていることを示す。
第2に、2017年から2022年にかけて、19カ国の議会議員が投稿した1800万件のツイートを分析して、この新たな手法を活用して、これまでで最大のネガティブキャンペーンに関する全国的な調査を行った。
一方、イデオロギー上極端でポピュリスト的な政党、特に急進的な右派政党は、かなり高いネガティブなレベルを担っている。
これらの知見は,マルチパーティシステムにおける戦略的コミュニケーションを,パーティレベルの特徴がどのように形成するかの理解を深めるものである。
より広範に、この研究は、言語や文化の文脈における政治的コミュニケーションにおいて、スケーラブルで透明性があり、複製可能な研究を可能にするLLMの可能性を実証している。
関連論文リスト
- Multilingual Political Views of Large Language Models: Identification and Steering [9.340686908318776]
大規模言語モデル(LLM)は、日々のツールやアプリケーションでますます使われており、政治的見解への潜在的な影響に対する懸念が高まっている。
政治コンパステスト(Political Compass Test)を用いて,14言語にまたがる7つのモデルの評価を行った。
以上の結果から,より大きなモデルがリバタリアンと左の位置に一貫して移行し,言語やモデルファミリに有意な変化が認められた。
論文 参考訳(メタデータ) (2025-07-30T12:42:35Z) - Identifying Fine-grained Forms of Populism in Political Discourse: A Case Study on Donald Trump's Presidential Campaigns [17.242754326635833]
本稿では,大言語モデルがポピュリズムの微細な形態を識別し,分類できるかどうかを検討する。
オープンウェイトとプロプライエタリの両方で、複数のプロンプトパラダイムで事前訓練された(大規模な)言語モデルを評価する。
微調整のRoBERTa分類器は、微調整のない限り、新しい命令のLLMをはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2025-07-25T14:18:54Z) - Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - Cross-Lingual Pitfalls: Automatic Probing Cross-Lingual Weakness of Multilingual Large Language Models [55.14276067678253]
本稿では,Large Language Models (LLMs) における言語間関係の弱点を効率的に同定するための新しい手法を提案する。
この手法を用いて16言語で6,000以上のバイリンガルペアからなる新しいデータセットを構築し、最先端のモデルにおいても弱点を明らかにする効果を実証した。
さらに,言語的類似性と言語間の弱点との関係について検討し,言語的関連言語が類似した演奏パターンを共有することを明らかにした。
論文 参考訳(メタデータ) (2025-05-24T12:31:27Z) - Large Language Models are often politically extreme, usually ideologically inconsistent, and persuasive even in informational contexts [1.9782163071901029]
大規模言語モデル(LLM)は、人々が情報を取得し、世界と対話する方法を根本的に変える、変革的な技術である。
LLMの全体的な党派的嗜好は、特定のトピックに対する極端な見解の相違による純結果であることを示す。
ランダム化実験では、LLMは情報検索の文脈においても、自らの好みを政治的説得力に広めることができることを示す。
論文 参考訳(メタデータ) (2025-05-07T06:53:59Z) - Affective Polarization Amongst Swedish Politicians [0.0]
本研究では,2021年から2023年までのスウェーデンの政治家のTwitter上での感情分極について検討した。
グループ内が党レベルで定義されると、否定的な党派が圧倒的に支配的になる。
否定的な党派は、オンラインの可視性にとって戦略的選択であることを証明し、3.18以上のお気に入りと1.69以上のリツイートを惹きつける。
論文 参考訳(メタデータ) (2025-03-20T14:40:48Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。