論文の概要: Representation Bias in Political Sample Simulations with Large Language Models
- arxiv url: http://arxiv.org/abs/2407.11409v1
- Date: Tue, 16 Jul 2024 05:52:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 18:22:47.504054
- Title: Representation Bias in Political Sample Simulations with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた政治サンプルシミュレーションにおける表現バイアス
- Authors: Weihong Qi, Hanjia Lyu, Jiebo Luo,
- Abstract要約: 本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
- 参考スコア(独自算出の注目度): 54.48283690603358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study seeks to identify and quantify biases in simulating political samples with Large Language Models, specifically focusing on vote choice and public opinion. Using the GPT-3.5-Turbo model, we leverage data from the American National Election Studies, German Longitudinal Election Study, Zuobiao Dataset, and China Family Panel Studies to simulate voting behaviors and public opinions. This methodology enables us to examine three types of representation bias: disparities based on the the country's language, demographic groups, and political regime types. The findings reveal that simulation performance is generally better for vote choice than for public opinions, more accurate in English-speaking countries, more effective in bipartisan systems than in multi-partisan systems, and stronger in democratic settings than in authoritarian regimes. These results contribute to enhancing our understanding and developing strategies to mitigate biases in AI applications within the field of computational social science.
- Abstract(参考訳): 本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的としており,特に投票選択と世論に焦点を当てている。
GPT-3.5-Turboモデルを用いて、投票行動や世論をシミュレートするために、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
本手法により,国語,人口集団,政治体制の3種類の表現バイアスを検討することができる。
この結果は、世論よりもシミュレーション性能の方が概して投票選択に適しており、英語圏ではより正確であり、多党制よりも両党制の方が効果的であり、独裁政権よりも民主的な状況の方が強いことを示している。
これらの結果は、計算社会科学の分野におけるAI応用におけるバイアスを軽減するための理解と戦略の発展に寄与する。
関連論文リスト
- Uncovering Political Bias in Emotion Inference Models: Implications for sentiment analysis in social science research [0.0]
本稿では、社会科学研究における感情分析(SA)に使用される機械学習モデルにおける政治的バイアスの存在について検討する。
ポーランドの感情分析モデルを用いた偏見調査を行った。
以上の結果から, 人間のラテンダーによるアノテーションは, モデルの予測に政治的偏見を伝播させることが示唆された。
論文 参考訳(メタデータ) (2024-07-18T20:31:07Z) - Lessons from the Trenches on Reproducible Evaluation of Language Models [60.522749986793094]
我々は,大規模言語モデルの評価を3年間経験し,研究者に指導とレッスンを提供してきた。
本稿では,言語モデルの独立性,再現性,評価を行うオープンソースライブラリであるLanguage Model Evaluation Harness(lm-eval)を紹介する。
論文 参考訳(メタデータ) (2024-05-23T16:50:49Z) - Can LLMs Help Predict Elections? (Counter)Evidence from the World's Largest Democracy [3.0915192911449796]
ソーシャルメディアが世論の形成にどのように影響し、政治的結果に影響を及ぼすかについての研究は、一般的な調査分野である。
本稿では,Large Language Models (LLMs) の機能を活用し,ソーシャルメディアデータを調べ,選挙結果を予測する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T15:13:23Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - The Face of Populism: Examining Differences in Facial Emotional
Expressions of Political Leaders Using Machine Learning [57.70351255180495]
深層学習に基づくコンピュータビジョンのアルゴリズムを、15カ国の政治指導者を描いた220本のYouTubeビデオのサンプルに適用する。
ポピュリスト・レトリックの度合いが異なるリーダー群間での否定的感情の平均スコアの統計的に有意な差を観察した。
論文 参考訳(メタデータ) (2023-04-19T18:32:49Z) - Fairly Allocating Utility in Constrained Multiwinner Elections [0.0]
このような文脈にまたがる公平性を保証する一般的な分母は、制約の使用である。
これらの状況の中で、与えられた制約を満たすために選ばれた候補者は、歴史的に不利な有権者の集団に対して、体系的に不公平な結果をもたらす可能性がある。
投票者間の制約を公平に満たす候補を選択するモデルを構築した。
論文 参考訳(メタデータ) (2022-11-23T10:04:26Z) - Out of One, Many: Using Language Models to Simulate Human Samples [3.278541277919869]
このようなツール(GPT-3言語モデル)の「アルゴリズムバイアス」は、粒度と人口統計学的に相関していることを示す。
我々は、実際の人間の参加者から何千もの社会デマトグラフィーのバックストリーにモデルを条件付けることで「シリコンサンプル」を作成します。
論文 参考訳(メタデータ) (2022-09-14T19:53:32Z) - Exploring Fairness in District-based Multi-party Elections under
different Voting Rules using Stochastic Simulations [0.5076419064097732]
多くの民主社会では、地域を地理的に区分し、その地区に居住する選挙人の選好に基づき、各地区の代表が選出される地区ベースの選挙を使用している。
これは、多くの選挙人が選挙結果に不満を抱いている状況に繋がる可能性を示しており、これは民主主義では望ましくない。
機械学習アルゴリズムの公正性に関する現在の文献に触発されて、政治的選択に関係なく、選挙人の満足度を定量化するための公正性の尺度を定義した。
論文 参考訳(メタデータ) (2022-02-25T18:03:03Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Electoral Forecasting Using a Novel Temporal Attenuation Model:
Predicting the US Presidential Elections [91.3755431537592]
予備選別世論調査データを用いて予測精度を向上させる新しいマクロスケール時間減衰(TA)モデルを開発した。
我々の仮説は、世論調査を公表するタイミングは、特に選挙直前の世論の変動に重要な役割を果たす、というものである。
我々は,48年間の平均予測誤差2.8-3.28点を蓄積するTAモデルの2つの異なる実装を提案する。
論文 参考訳(メタデータ) (2020-04-30T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。