論文の概要: Large Language Models Can Be Used to Estimate the Latent Positions of
Politicians
- arxiv url: http://arxiv.org/abs/2303.12057v4
- Date: Tue, 26 Sep 2023 21:24:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 19:42:13.546346
- Title: Large Language Models Can Be Used to Estimate the Latent Positions of
Politicians
- Title(参考訳): 大規模言語モデルを用いて政治家の最近の位置を推定できる
- Authors: Patrick Y. Wu, Jonathan Nagler, Joshua A. Tucker, Solomon Messing
- Abstract要約: 既存の政治家の潜伏姿勢を推定するアプローチは、関連するデータが限られると失敗することが多い。
我々は、生成的大言語モデルに埋め込まれた知識を活用して、特定の政治的・政策的な側面に沿って議員の立場を測定する。
我々は、リベラル保守的イデオロギー、銃規制、中絶に関する米国上院議員の立場に関する新しい措置を見積もる。
- 参考スコア(独自算出の注目度): 3.9940425551415597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches to estimating politicians' latent positions along
specific dimensions often fail when relevant data is limited. We leverage the
embedded knowledge in generative large language models (LLMs) to address this
challenge and measure lawmakers' positions along specific political or policy
dimensions. We prompt an instruction/dialogue-tuned LLM to pairwise compare
lawmakers and then scale the resulting graph using the Bradley-Terry model. We
estimate novel measures of U.S. senators' positions on liberal-conservative
ideology, gun control, and abortion. Our liberal-conservative scale, used to
validate LLM-driven scaling, strongly correlates with existing measures and
offsets interpretive gaps, suggesting LLMs synthesize relevant data from
internet and digitized media rather than memorizing existing measures. Our gun
control and abortion measures -- the first of their kind -- differ from the
liberal-conservative scale in face-valid ways and predict interest group
ratings and legislator votes better than ideology alone. Our findings suggest
LLMs hold promise for solving complex social science measurement problems.
- Abstract(参考訳): 特定の次元に沿って政治家の潜在位置を推定する既存のアプローチは、関連するデータが限られている場合、しばしば失敗する。
我々は、この課題に対処し、特定の政治的または政策的な側面に沿って議員の立場を測定するために、ジェネレーティブ・大型言語モデル(llm)に埋め込まれた知識を活用する。
命令/対話型LLMを推進し、議員をペアで比較し、Bradley-Terryモデルを用いて結果のグラフをスケールする。
我々は、リベラル保守的イデオロギー、銃規制、中絶に関する米国上院議員の立場に関する新しい措置を見積もる。
我々のリベラル保守尺度は、LCMによるスケーリングの検証に使用されており、既存の尺度と強く相関し、解釈的ギャップを減らし、LCMが既存の尺度を記憶するのではなく、インターネットやデジタルメディアから関連するデータを合成することを示唆している。
銃規制と中絶措置は、対面的な方法でリベラル保守的な尺度と異なり、イデオロギーのみよりも利害団体の格付けや議員の投票率を予測している。
以上の結果から, LLM は複雑な社会科学計測問題の解決に有効であることが示唆された。
関連論文リスト
- Large Language Models' Detection of Political Orientation in Newspapers [0.0]
新聞の立場をよりよく理解するための様々な方法が開発されている。
LLM(Large Language Models)の出現は、研究者や市民を補助する破壊的な可能性を秘めている。
我々は,広く採用されている4つのLCMが新聞の位置づけを評価する方法を比較し,その回答が相互に一致しているかどうかを比較する。
膨大なデータセットを通じて、新聞の記事は単一のLCMによって著しく異なる位置に配置され、アルゴリズムの一貫性のないトレーニングや過度なランダム性を示唆している。
論文 参考訳(メタデータ) (2024-05-23T06:18:03Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - ALERT: A Comprehensive Benchmark for Assessing Large Language Models' Safety through Red Teaming [64.86326523181553]
ALERTは、新しいきめ細かいリスク分類に基づいて安全性を評価するための大規模なベンチマークである。
脆弱性を特定し、改善を通知し、言語モデルの全体的な安全性を高めることを目的としている。
論文 参考訳(メタデータ) (2024-04-06T15:01:47Z) - Measuring Political Bias in Large Language Models: What Is Said and How It Is Said [46.1845409187583]
政治問題に関するコンテンツの内容とスタイルの両方を分析し,LLMにおける政治的偏見を測定することを提案する。
提案尺度は, 生殖権や気候変動などの異なる政治課題を, それらのバイアスの内容(世代的物質)と様式(語彙的極性)の両方で考察する。
論文 参考訳(メタデータ) (2024-03-27T18:22:48Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Scaling Political Texts with Large Language Models: Asking a Chatbot Might Be All You Need [0.0]
我々は、政策やイデオロギーの空間に政治的テキストを配置するために、LLM(Large Language Models)を用いている。
経済・社会・移民政策の側面にイギリスの党宣言を拡大することで、このアプローチを実証し、検証する。
専門家、クラウドワーカー、ロールコール投票によるコーディングに基づく最高のLCMとベンチマークで得られた位置推定値の相関は、90を超えている。
論文 参考訳(メタデータ) (2023-11-28T09:45:02Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。