論文の概要: Large Language Models Can Be Used to Scale the Ideologies of Politicians
in a Zero-Shot Learning Setting
- arxiv url: http://arxiv.org/abs/2303.12057v3
- Date: Mon, 17 Apr 2023 16:17:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 20:35:51.252959
- Title: Large Language Models Can Be Used to Scale the Ideologies of Politicians
in a Zero-Shot Learning Setting
- Title(参考訳): ゼロショット学習環境における政治家のイデオロギーのスケールアップに大規模言語モデルを用いる
- Authors: Patrick Y. Wu, Jonathan Nagler, Joshua A. Tucker, Solomon Messing
- Abstract要約: 我々は、ChatGPTに送ったプロンプトを用いて、第116回アメリカ合衆国上院議員間の対等にリベラル・保守的な比較を拡大する。
我々の尺度は、DW-ノミネイトのような広く使われているリベラル保守尺度と強く関連している。
我々の措置は他の措置よりも政治活動家の上院議員に対する認識と強く結びついている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The aggregation of knowledge embedded in large language models (LLMs) holds
the promise of new solutions to problems of observability and measurement in
the social sciences. We examine this potential in a challenging setting:
measuring latent ideology -- crucial for better understanding core political
functions such as democratic representation. We scale pairwise
liberal-conservative comparisons between members of the 116th U.S. Senate using
prompts made to ChatGPT. Our measure strongly correlates with widely used
liberal-conservative scales such as DW-NOMINATE. Our scale also has
interpretative advantages, such as not placing senators who vote against their
party for ideologically extreme reasons towards the middle. Our measure is more
strongly associated with political activists' perceptions of senators than
other measures, consistent with LLMs synthesizing vast amounts of politically
relevant data from internet/book corpora rather than memorizing existing
measures. LLMs will likely open new avenues for measuring latent constructs
utilizing modeled information from massive text corpora.
- Abstract(参考訳): 大規模言語モデル(LLM)に埋め込まれた知識の集約は、社会科学における可観測性と測定の問題に対する新しい解決策の約束を保っている。
潜在的なイデオロギーを測定する — 民主的な代表のような中核的な政治機能を理解する上で極めて重要である。
我々は、ChatGPTに送ったプロンプトを用いて、第116回アメリカ合衆国上院議員間の対等にリベラル・保守的な比較を拡大する。
我々の尺度は、DW-ノミネイトのような広く使われているリベラル保守尺度と強く関連している。
私たちの規模には、イデオロギー的に極端な理由から党に反対する上院議員を中央に配置しないなど、解釈上の利点もあります。
我々の措置は他の措置よりも政治活動家の上院議員に対する認識と強く結びついており、既存の措置を記憶するのではなく、インターネットや本のコーパスから膨大な量の政治的関連データを合成するLLMと一致している。
LLMは、大量のテキストコーパスからモデル化された情報を利用する潜在構造を測定するための新しい道を開くだろう。
関連論文リスト
- ALERT: A Comprehensive Benchmark for Assessing Large Language Models' Safety through Red Teaming [64.86326523181553]
ALERTは、新しいきめ細かいリスク分類に基づいて安全性を評価するための大規模なベンチマークである。
脆弱性を特定し、改善を通知し、言語モデルの全体的な安全性を高めることを目的としている。
論文 参考訳(メタデータ) (2024-04-06T15:01:47Z) - Measuring Political Bias in Large Language Models: What Is Said and How It Is Said [46.1845409187583]
政治問題に関するコンテンツの内容とスタイルの両方を分析し,LLMにおける政治的偏見を測定することを提案する。
提案尺度は, 生殖権や気候変動などの異なる政治課題を, それらのバイアスの内容(世代的物質)と様式(語彙的極性)の両方で考察する。
論文 参考訳(メタデータ) (2024-03-27T18:22:48Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Beyond prompt brittleness: Evaluating the reliability and consistency of
political worldviews in LLMs [8.598491106068273]
大型言語モデル(LLM)は左利きの傾きを示す。
これらの傾きが信頼できるか(変化を促すために悪用されている)、また、その傾きが政策や政治的傾きに一貫しているかは、いまだに不明である。
本研究では、EU7カ国から収集した投票支援票のデータセットに基づいて、政治声明に対するLCMの姿勢の信頼性と整合性を評価する一連のテストを提案する。
論文 参考訳(メタデータ) (2024-02-27T16:19:37Z) - The Political Preferences of LLMs [0.0]
我々は、テストテイカーの政治的嗜好を特定するために、11の政治的指向テストを実施し、24の最先端の会話型LLMに対して実施する。
その結果、政治的意味のある質問や文章を調査すると、ほとんどの会話型LLMは、ほとんどの政治的テスト機器で診断される応答を、中心的な視点の好みを示すものとして生成する傾向にあることがわかった。
論文 参考訳(メタデータ) (2024-02-02T02:43:10Z) - Measuring Moral Inconsistencies in Large Language Models [16.47371312298185]
大言語モデル(LLM)は、意味的に等価なプロンプトが意味的に等価な応答を生成する場合、一貫性があると考えられる。
現状のLLMでさえ、その世代では非常に不整合であり、信頼性に疑問を呈している。
本稿では,SGE (Semantic Graph Entropy) と呼ばれる新たな情報理論尺度を提案する。
論文 参考訳(メタデータ) (2024-01-26T18:05:47Z) - Navigating the Ocean of Biases: Political Bias Attribution in Language
Models via Causal Structures [58.059631072902356]
我々は、LLMの価値観を批判したり、検証したりせず、どのようにして「良い議論」を解釈し、偏見づけるかを見極めることを目的としている。
本研究では,活動依存ネットワーク(ADN)を用いてLCMの暗黙的基準を抽出する。
人-AIアライメントとバイアス緩和について,本研究の結果について考察した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。