論文の概要: Large language models accurately predict public perceptions of support for climate action worldwide
- arxiv url: http://arxiv.org/abs/2601.20141v1
- Date: Wed, 28 Jan 2026 00:30:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.705136
- Title: Large language models accurately predict public perceptions of support for climate action worldwide
- Title(参考訳): 大規模言語モデルは、世界中の気候活動支援に対する大衆の認識を正確に予測する
- Authors: Nattavudh Powdthavee, Sandra J. Geiger,
- Abstract要約: 大規模言語モデルが世界中で認識ギャップを確実に予測できるかどうかを検証する。
125カ国の国レベルの指標と世論データを用いて、4つの最先端LCMをベンチマークする。
LLMは、他人が気候活動に金銭的に貢献する意志についての大衆の認識を正確に捉えている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although most people support climate action, widespread underestimation of others' support stalls individual and systemic changes. In this preregistered experiment, we test whether large language models (LLMs) can reliably predict these perception gaps worldwide. Using country-level indicators and public opinion data from 125 countries, we benchmark four state-of-the-art LLMs against Gallup World Poll 2021/22 data and statistical regressions. LLMs, particularly Claude, accurately capture public perceptions of others' willingness to contribute financially to climate action (MAE approximately 5 p.p.; r = .77), comparable to statistical models, though performance declines in less digitally connected, lower-GDP countries. Controlled tests show that LLMs capture the key psychological process - social projection with a systematic downward bias - and rely on structured reasoning rather than memorized values. Overall, LLMs provide a rapid tool for assessing perception gaps in climate action, serving as an alternative to costly surveys in resource-rich countries and as a complement in underrepresented populations.
- Abstract(参考訳): ほとんどの人は気候活動を支持しているが、他者の支持の過小評価は個人的・体系的な変化を妨げている。
この事前登録実験では、大言語モデル(LLM)が世界中の知覚ギャップを確実に予測できるかどうかを検証した。
125カ国の国レベルの指標と世論データを用いて、Gallup World Poll 2021/22のデータと統計レグレッションに対して、最先端の4つのLCMをベンチマークする。
LLM、特にクロードは、統計モデルに匹敵する気候活動(MAE:約5 p.p.; r = .77)に金銭的に貢献する他人の意志に対する大衆の認識を正確に捉えている。
制御されたテストは、LLMが重要な心理的プロセス、つまり体系的な下向きバイアスを伴う社会的投射を捉え、記憶された価値よりも構造化された推論に依存していることを示している。
総じて、LCMは気候活動における知覚ギャップを評価するための迅速なツールを提供し、資源豊富な国における高価な調査の代替となり、人口不足を補うのに役立ちます。
関連論文リスト
- SocioBench: Modeling Human Behavior in Sociological Surveys with Large Language Models [32.66051406264919]
大規模言語モデル(LLM)は、人間の社会的行動や相互作用をシミュレートする強力な可能性を示すが、実際の社会的態度との整合性を評価するための大規模で体系的なベンチマークは欠如している。
国際社会調査プログラム(ISSP)の年次収集標準化調査データから得られた総合的なベンチマークであるSocioBenchを紹介する。
このベンチマークは、30カ国以上から480,000件以上の実応答記録を収集し、10の社会学的ドメインと40以上の人口統計特性にまたがっている。
論文 参考訳(メタデータ) (2025-10-13T08:22:20Z) - Llms, Virtual Users, and Bias: Predicting Any Survey Question Without Human Data [0.0]
大言語モデル(LLM)を使用して、調査質問に答える仮想人口を作成します。
GPT-4o, GPT-3.5, Claude 3.5-Sonnet, そしてLlama と Mistral モデルの性能を従来のランダムフォレストアルゴリズムと比較して評価した。
論文 参考訳(メタデータ) (2025-03-11T16:27:20Z) - Fairness in LLM-Generated Surveys [0.5720786928479238]
大規模言語モデル(LLM)は、特に社会・政治・経済のパターンをシミュレートするテキスト生成と理解において優れている。
本研究は,チリと米国からの公的調査を分析した結果,LLMが多種多様な個体群でどのように機能するかを検討した。
政治的アイデンティティと人種は予測精度に大きな影響を与え、チリではジェンダー、教育、宗教関係はより顕著な役割を担っている。
論文 参考訳(メタデータ) (2025-01-25T23:42:20Z) - United in Diversity? Contextual Biases in LLM-Based Predictions of the 2024 European Parliament Elections [42.72938925647165]
大規模言語モデル(LLM)に基づく「合成サンプル」は、人間の調査の効率的な代替手段として有効であると議論されている。
合成サンプル」は、訓練データや微調整プロセスが多様な文脈を表わさないため偏見を呈する可能性がある。
本研究は, LLM生成合成試料を公衆の意見予測に利用できるか, どのような条件で利用できるかを検討する。
論文 参考訳(メタデータ) (2024-08-29T16:01:06Z) - Social Debiasing for Fair Multi-modal LLMs [59.61512883471714]
MLLM(Multi-modal Large Language Models)は、研究分野を劇的に進歩させ、強力な視覚言語理解機能を提供する。
これらのモデルは、しばしば訓練データから根深い社会的偏見を継承し、人種や性別などの属性に対する不快な反応をもたらす。
本稿では,MLLMにおける社会的バイアスの問題を,複数の社会的概念を持つ包括的対実的データセットを導入することで解決する。
論文 参考訳(メタデータ) (2024-08-13T02:08:32Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Large Language Models are Geographically Biased [47.88767211956144]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - Global-Liar: Factuality of LLMs over Time and Geographic Regions [3.715487408753612]
本研究は, GPT-3.5 や GPT-4 を含む広く採用されている GPT モデルにおける実測精度, 安定性, バイアスを評価する。
地理的および時間的表現の観点から一意にバランスのとれたデータセットである「Global-Liar」を導入する。
論文 参考訳(メタデータ) (2024-01-31T13:57:24Z) - Can Large Language Models Capture Public Opinion about Global Warming?
An Empirical Assessment of Algorithmic Fidelity and Bias [0.0]
大規模言語モデル(LLM)は、人間の知覚や行動をエミュレートすることで、社会科学研究においてその可能性を実証している。
本研究は,LLMのアルゴリズム的忠実度と偏りを,全国的に代表される2つの気候変動調査を用いて評価する。
論文 参考訳(メタデータ) (2023-11-01T01:32:59Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。