論文の概要: In Silico Sociology: Forecasting COVID-19 Polarization with Large Language Models
- arxiv url: http://arxiv.org/abs/2407.11190v1
- Date: Thu, 23 May 2024 22:10:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 12:00:08.725999
- Title: In Silico Sociology: Forecasting COVID-19 Polarization with Large Language Models
- Title(参考訳): サイリコ社会学:大規模言語モデルによる新型コロナウイルスの分極予測
- Authors: Austin C. Kozlowski, Hyunku Kwon, James A. Evans,
- Abstract要約: 我々は、デジタル化されたテキストの膨大なアーカイブにディープニューラルネットワークをトレーニングし、歴史的および現代的な言説を構成する複雑な言語パターンを学習する。
我々は、2019年の世論の展望を再構築し、既存の政治談話の中で、COVID-19に対する今後の偏極がどの程度予測されたかを調べる。
その結果、シミュレートされた回答者は84%の患者において、新型コロナウイルスの態度のパルチザン的な違いを再現した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: By training deep neural networks on massive archives of digitized text, large language models (LLMs) learn the complex linguistic patterns that constitute historic and contemporary discourses. We argue that LLMs can serve as a valuable tool for sociological inquiry by enabling accurate simulation of respondents from specific social and cultural contexts. Applying LLMs in this capacity, we reconstruct the public opinion landscape of 2019 to examine the extent to which the future polarization over COVID-19 was prefigured in existing political discourse. Using an LLM trained on texts published through 2019, we simulate the responses of American liberals and conservatives to a battery of pandemic-related questions. We find that the simulated respondents reproduce observed partisan differences in COVID-19 attitudes in 84% of cases, significantly greater than chance. Prompting the simulated respondents to justify their responses, we find that much of the observed partisan gap corresponds to differing appeals to freedom, safety, and institutional trust. Our findings suggest that the politicization of COVID-19 was largely consistent with the prior ideological landscape, and this unprecedented event served to advance history along its track rather than change the rails.
- Abstract(参考訳): デジタル化されたテキストの膨大なアーカイブ上でディープニューラルネットワークをトレーニングすることにより、大きな言語モデル(LLM)は、歴史的および現代的な言説を構成する複雑な言語パターンを学習する。
LLMは, 特定の社会的・文化的文脈から, 回答者の正確なシミュレーションを行うことによって, 社会学的調査に有用なツールとして機能する, と論じる。
この能力にLLMを適用して、2019年の世論の展望を再構築し、既存の政治談話の中で、COVID-19に対する今後の偏極がどの程度予測されたかを調べる。
2019年までに出版されたテキストに基づいて訓練されたLCMを用いて、パンデミック関連の質問に対する米国のリベラル派や保守派の反応をシミュレートする。
その結果、シミュレートされた回答者は84%の患者において、新型コロナウイルスの態度のパルチザン的な違いを再現した。
シミュレーションされた回答者が回答を正当化すると、観察されたパルチザンのギャップの大部分は、自由、安全、制度的信頼に対する異なる魅力に対応していることがわかった。
以上の結果から、新型コロナウイルスの政治化は以前のイデオロギーの状況と大きく一致していることが示唆され、この前例のない出来事は、レールを変えるよりも、線路沿いの歴史を前進させるのに役立った。
関連論文リスト
- GermanPartiesQA: Benchmarking Commercial Large Language Models for Political Bias and Sycophancy [20.06753067241866]
我々は,OpenAI, Anthropic, Cohereの6つのLDMのアライメントをドイツ政党の立場と比較した。
我々は、主要なドイツの国会議員のベンチマークデータと社会デマグラフィーデータを用いて、迅速な実験を行う。
論文 参考訳(メタデータ) (2024-07-25T13:04:25Z) - Investigating LLMs as Voting Assistants via Contextual Augmentation: A Case Study on the European Parliament Elections 2024 [22.471701390730185]
最近の研究は、大規模言語モデルにおける政治的偏見と政治的推論能力を探究している。
2024年の欧州議会議員選挙では、LLMsがVoting Advice Applications (VAA)として利用できるかどうかを調査している。
我々は、MISTRALとMIXTRALモデルを評価し、最新の「EUとI」投票支援アンケートに基づいて、政党の姿勢を予測する際の精度を評価した。
論文 参考訳(メタデータ) (2024-07-11T13:29:28Z) - Large Language Models can impersonate politicians and other public figures [47.2573979612036]
大規模言語モデル(LLM)のような現代のAI技術は、メイクアップコンテンツで公開情報領域を汚染する可能性がある。
本稿では,英国社会の横断的な研究結果を紹介する。
LLMは、英国で放送された政治討論プログラムの一部である議論の質問に対する応答を生成することができる。
論文 参考訳(メタデータ) (2024-07-09T11:16:19Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews [51.453135368388686]
本稿では,大規模言語モデル (LLM) によって実質的に修正あるいは生成される可能性のある大規模コーパスにおけるテキストの分数推定手法を提案する。
我々の最大可能性モデルは、専門家による参照テキストとAIによる参照テキストを利用して、コーパスレベルでの実世界のLLM使用を正確かつ効率的に検証する。
論文 参考訳(メタデータ) (2024-03-11T21:51:39Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Exploring Value Biases: How LLMs Deviate Towards the Ideal [57.99044181599786]
LLM(Large-Language-Models)は幅広いアプリケーションにデプロイされ、その応答は社会的影響を増大させる。
価値バイアスは、人間の研究結果と同様、異なるカテゴリにわたるLSMにおいて強いことが示される。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。