論文の概要: Identifying Fine-grained Forms of Populism in Political Discourse: A Case Study on Donald Trump's Presidential Campaigns
- arxiv url: http://arxiv.org/abs/2507.19303v1
- Date: Fri, 25 Jul 2025 14:18:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.990925
- Title: Identifying Fine-grained Forms of Populism in Political Discourse: A Case Study on Donald Trump's Presidential Campaigns
- Title(参考訳): 政治談話におけるポピュリズムのきめ細かい形態の特定 : ドナルド・トランプの大統領選キャンペーンを事例として
- Authors: Ilias Chalkidis, Stephanie Brandl, Paris Aslanidis,
- Abstract要約: 本稿では,大言語モデルがポピュリズムの微細な形態を識別し,分類できるかどうかを検討する。
オープンウェイトとプロプライエタリの両方で、複数のプロンプトパラダイムで事前訓練された(大規模な)言語モデルを評価する。
微調整のRoBERTa分類器は、微調整のない限り、新しい命令のLLMをはるかに上回っていることがわかった。
- 参考スコア(独自算出の注目度): 17.242754326635833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities across a wide range of instruction-following tasks, yet their grasp of nuanced social science concepts remains underexplored. This paper examines whether LLMs can identify and classify fine-grained forms of populism, a complex and contested concept in both academic and media debates. To this end, we curate and release novel datasets specifically designed to capture populist discourse. We evaluate a range of pre-trained (large) language models, both open-weight and proprietary, across multiple prompting paradigms. Our analysis reveals notable variation in performance, highlighting the limitations of LLMs in detecting populist discourse. We find that a fine-tuned RoBERTa classifier vastly outperforms all new-era instruction-tuned LLMs, unless fine-tuned. Additionally, we apply our best-performing model to analyze campaign speeches by Donald Trump, extracting valuable insights into his strategic use of populist rhetoric. Finally, we assess the generalizability of these models by benchmarking them on campaign speeches by European politicians, offering a lens into cross-context transferability in political discourse analysis. In this setting, we find that instruction-tuned LLMs exhibit greater robustness on out-of-domain data.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幅広い命令追従タスクにおいて顕著な能力を示してきたが、それらの曖昧な社会科学概念の把握はいまだに未解明のままである。
本稿は,LLMが,学術・メディアの議論において複雑かつ矛盾した概念である,微粒なポピュリズムを識別し,分類できるかどうかを検討する。
この目的のために、ポピュリストの言論を捉えるために特別に設計された新しいデータセットをキュレートし、リリースする。
オープンウェイトとプロプライエタリの両方で、複数のプロンプトパラダイムで事前訓練された(大規模な)言語モデルを評価する。
分析の結果,ポピュリストの言論を検出する上でのLDMの限界が顕著であることが明らかとなった。
微調整のRoBERTa分類器は、微調整のない限り、新しい命令のLLMをはるかに上回っていることがわかった。
さらに、ドナルド・トランプの選挙演説を分析し、ポピュリスト・レトリックの戦略的利用に関する貴重な洞察を抽出するために、我々の最高のパフォーマンスモデルを適用します。
最後に、これらのモデルの一般化可能性を評価するために、ヨーロッパの政治家によるキャンペーンスピーチをベンチマークし、政治談話分析におけるクロスコンテクストの伝達性に関するレンズを提供する。
この設定では、命令調整されたLLMはドメイン外のデータに対してより堅牢性を示す。
関連論文リスト
- Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - Through the LLM Looking Glass: A Socratic Probing of Donkeys, Elephants, and Markets [42.55423041662188]
この研究は、外部解釈に頼るのではなく、モデルのバイアスを直接測定することを目的としている。
我々の結果は、あらゆるモデルで共和党の立場よりも民主党を一貫して好んでいることを示している。
経済の話題では、西洋のLLMには偏見があるが、中国で開発されたものは社会主義に強く依存している。
論文 参考訳(メタデータ) (2025-03-20T19:40:40Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Towards More Accurate US Presidential Election via Multi-step Reasoning with Large Language Models [12.582222782098587]
選挙予測は、限られた有権者レベルのデータ、急速に変化する政治情勢、複雑な人間の振る舞いをモデル化する必要性など、ユニークな課題を生んでいる。
政治分析のための多段階推論フレームワークを提案する。
われわれのアプローチは、2016年と2020年のアメリカ大統領選挙研究(ANES)の実際のデータに基づいて検証されている。
論文 参考訳(メタデータ) (2024-10-21T06:18:53Z) - LLM-POTUS Score: A Framework of Analyzing Presidential Debates with Large Language Models [33.251235538905895]
本稿では,大規模言語モデルを用いた大統領討論のパフォーマンス評価手法を提案する。
本研究では, 候補者の「政策, ペルソナ, パーソナ, パースペクティブ」(3P)と, 4つの主要オーディエンスグループの「関心, イデオロギー, アイデンティティ」とどのように共鳴するかを分析する枠組みを提案する。
提案手法では,LLM-POTUSスコアを生成するために,大規模な言語モデルを用いる。
論文 参考訳(メタデータ) (2024-09-12T15:40:45Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Large Language Models: A Survey [66.39828929831017]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。