論文の概要: Populism Meets AI: Advancing Populism Research with LLMs
- arxiv url: http://arxiv.org/abs/2510.07458v1
- Date: Wed, 08 Oct 2025 19:04:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.680564
- Title: Populism Meets AI: Advancing Populism Research with LLMs
- Title(参考訳): ポピュリズムとAI:LLMによるポピュリズム研究の促進
- Authors: Eduardo Ryô Tamaki, Yujin J. Jung, Julia Chatterley, Grant Mitchell, Semir Dzebo, Cristóbal Sandoval, Levente Littvay, Kirk A. Hawkins,
- Abstract要約: 我々は,人間のコーダトレーニングを反映する思考の連鎖(CoT)を誘導するルーリックでアンカー誘導の連鎖の結果を提示する。
我々は、モデルの推論をガイドするために、同じドキュメントの適応バージョンでLLMに促すことで、人間のコーダのトレーニングに使用されるプロセスを再現する。
このドメイン固有のプロンプト戦略により、LLMは専門家の人間のコーダと同等の分類精度を達成できることがわかった。
- 参考スコア(独自算出の注目度): 0.7854037738925822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Measuring the ideational content of populism remains a challenge. Traditional strategies based on textual analysis have been critical for building the field's foundations and providing a valid, objective indicator of populist framing. Yet these approaches are costly, time consuming, and difficult to scale across languages, contexts, and large corpora. Here we present the results from a rubric and anchor guided chain of thought (CoT) prompting approach that mirrors human coder training. By leveraging the Global Populism Database (GPD), a comprehensive dataset of global leaders' speeches annotated for degrees of populism, we replicate the process used to train human coders by prompting the LLM with an adapted version of the same documentation to guide the model's reasoning. We then test multiple proprietary and open weight models by replicating scores in the GPD. Our findings reveal that this domain specific prompting strategy enables the LLM to achieve classification accuracy on par with expert human coders, demonstrating its ability to navigate the nuanced, context sensitive aspects of populism.
- Abstract(参考訳): ポピュリズムの観念的内容を測定することは依然として課題である。
テキスト分析に基づく伝統的な戦略は、フィールドの基礎を構築し、ポピュリストフレーミングの有効な客観的指標を提供するために重要である。
しかし、これらのアプローチはコストがかかり、時間がかかり、言語、コンテキスト、大きなコーパスをまたいでスケールするのが困難です。
ここでは,人間のコーダトレーニングを反映した,ルーリックかつアンカーガイド型思考連鎖(CoT)のアプローチについて述べる。
グローバル・ポピュリズム・データベース(GPD)は,グローバル・リーダーのスピーチをポピュリズムの度合いに注釈付けした包括的データセットである。
次に、GPDのスコアを複製することで、複数のプロプライエタリおよびオープンウェイトモデルをテストする。
このドメイン固有のプロンプト戦略により、LLMは、専門家の人間のコーダーと同等の分類精度を達成でき、ポピュリズムのニュアンスで文脈に敏感な側面をナビゲートできることを示した。
関連論文リスト
- Identifying Fine-grained Forms of Populism in Political Discourse: A Case Study on Donald Trump's Presidential Campaigns [17.242754326635833]
本稿では,大言語モデルがポピュリズムの微細な形態を識別し,分類できるかどうかを検討する。
オープンウェイトとプロプライエタリの両方で、複数のプロンプトパラダイムで事前訓練された(大規模な)言語モデルを評価する。
微調整のRoBERTa分類器は、微調整のない限り、新しい命令のLLMをはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2025-07-25T14:18:54Z) - Potential and Perils of Large Language Models as Judges of Unstructured Textual Data [0.631976908971572]
本研究では,LLM-as-judgeモデルの有効性を検討した。
LLM-as-judgeは、人間に匹敵するスケーラブルなソリューションを提供するが、人間は微妙で文脈固有のニュアンスを検出するのに優れている。
論文 参考訳(メタデータ) (2025-01-14T14:49:14Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Post Turing: Mapping the landscape of LLM Evaluation [22.517544562890663]
本稿では,アラン・チューリングによる基礎的疑問からAI研究の現代まで,大規模言語モデル (LLM) 評価の歴史的軌跡を追究する。
これらのモデルのより広範な社会的意味を考慮し、統一的な評価システムの必要性を強調した。
この作業は、AIコミュニティがLLM評価の課題に協力して対処し、信頼性、公正性、社会的な利益を保証するために役立ちます。
論文 参考訳(メタデータ) (2023-11-03T17:24:50Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。