論文の概要: Large language models accurately predict public perceptions of support for climate action worldwide
- arxiv url: http://arxiv.org/abs/2601.20141v1
- Date: Wed, 28 Jan 2026 00:30:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.705136
- Title: Large language models accurately predict public perceptions of support for climate action worldwide
- Title(参考訳): 大規模言語モデルは、世界中の気候活動支援に対する大衆の認識を正確に予測する
- Authors: Nattavudh Powdthavee, Sandra J. Geiger,
- Abstract要約: 大規模言語モデルが世界中で認識ギャップを確実に予測できるかどうかを検証する。
125カ国の国レベルの指標と世論データを用いて、4つの最先端LCMをベンチマークする。
LLMは、他人が気候活動に金銭的に貢献する意志についての大衆の認識を正確に捉えている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although most people support climate action, widespread underestimation of others' support stalls individual and systemic changes. In this preregistered experiment, we test whether large language models (LLMs) can reliably predict these perception gaps worldwide. Using country-level indicators and public opinion data from 125 countries, we benchmark four state-of-the-art LLMs against Gallup World Poll 2021/22 data and statistical regressions. LLMs, particularly Claude, accurately capture public perceptions of others' willingness to contribute financially to climate action (MAE approximately 5 p.p.; r = .77), comparable to statistical models, though performance declines in less digitally connected, lower-GDP countries. Controlled tests show that LLMs capture the key psychological process - social projection with a systematic downward bias - and rely on structured reasoning rather than memorized values. Overall, LLMs provide a rapid tool for assessing perception gaps in climate action, serving as an alternative to costly surveys in resource-rich countries and as a complement in underrepresented populations.
- Abstract(参考訳): ほとんどの人は気候活動を支持しているが、他者の支持の過小評価は個人的・体系的な変化を妨げている。
この事前登録実験では、大言語モデル(LLM)が世界中の知覚ギャップを確実に予測できるかどうかを検証した。
125カ国の国レベルの指標と世論データを用いて、Gallup World Poll 2021/22のデータと統計レグレッションに対して、最先端の4つのLCMをベンチマークする。
LLM、特にクロードは、統計モデルに匹敵する気候活動(MAE:約5 p.p.; r = .77)に金銭的に貢献する他人の意志に対する大衆の認識を正確に捉えている。
制御されたテストは、LLMが重要な心理的プロセス、つまり体系的な下向きバイアスを伴う社会的投射を捉え、記憶された価値よりも構造化された推論に依存していることを示している。
総じて、LCMは気候活動における知覚ギャップを評価するための迅速なツールを提供し、資源豊富な国における高価な調査の代替となり、人口不足を補うのに役立ちます。
関連論文リスト
- Large Language Models' Complicit Responses to Illicit Instructions across Socio-Legal Contexts [54.15982476754607]
大規模言語モデル(LLM)が前例のない規模に展開され、毎日のタスクで数百万のユーザを支援している。
本研究は、複雑なファシリテーションを、不正なユーザ指示を可能にするガイダンスやサポートの提供として定義する。
実世界の訴訟と確立された法的枠組みを用いて、269件の違法なシナリオと50件の違法な意図にまたがる評価ベンチマークを構築した。
論文 参考訳(メタデータ) (2025-11-25T16:01:31Z) - SocioBench: Modeling Human Behavior in Sociological Surveys with Large Language Models [32.66051406264919]
大規模言語モデル(LLM)は、人間の社会的行動や相互作用をシミュレートする強力な可能性を示すが、実際の社会的態度との整合性を評価するための大規模で体系的なベンチマークは欠如している。
国際社会調査プログラム(ISSP)の年次収集標準化調査データから得られた総合的なベンチマークであるSocioBenchを紹介する。
このベンチマークは、30カ国以上から480,000件以上の実応答記録を収集し、10の社会学的ドメインと40以上の人口統計特性にまたがっている。
論文 参考訳(メタデータ) (2025-10-13T08:22:20Z) - Llms, Virtual Users, and Bias: Predicting Any Survey Question Without Human Data [0.0]
大言語モデル(LLM)を使用して、調査質問に答える仮想人口を作成します。
GPT-4o, GPT-3.5, Claude 3.5-Sonnet, そしてLlama と Mistral モデルの性能を従来のランダムフォレストアルゴリズムと比較して評価した。
論文 参考訳(メタデータ) (2025-03-11T16:27:20Z) - Specializing Large Language Models to Simulate Survey Response Distributions for Global Populations [49.908708778200115]
我々は,調査応答分布をシミュレートする大規模言語モデル (LLM) を最初に開発した。
テストベッドとして、我々は2つの世界文化調査の国レベルの結果を使用します。
予測された応答分布と実際の応答分布のばらつきを最小限に抑えるために, ファースト・ツーケン確率に基づく微調整法を提案する。
論文 参考訳(メタデータ) (2025-02-10T21:59:27Z) - Fairness in LLM-Generated Surveys [0.5720786928479238]
大規模言語モデル(LLM)は、特に社会・政治・経済のパターンをシミュレートするテキスト生成と理解において優れている。
本研究は,チリと米国からの公的調査を分析した結果,LLMが多種多様な個体群でどのように機能するかを検討した。
政治的アイデンティティと人種は予測精度に大きな影響を与え、チリではジェンダー、教育、宗教関係はより顕著な役割を担っている。
論文 参考訳(メタデータ) (2025-01-25T23:42:20Z) - United in Diversity? Contextual Biases in LLM-Based Predictions of the 2024 European Parliament Elections [42.72938925647165]
大規模言語モデル(LLM)に基づく「合成サンプル」は、人間の調査の効率的な代替手段として有効であると議論されている。
合成サンプル」は、訓練データや微調整プロセスが多様な文脈を表わさないため偏見を呈する可能性がある。
本研究は, LLM生成合成試料を公衆の意見予測に利用できるか, どのような条件で利用できるかを検討する。
論文 参考訳(メタデータ) (2024-08-29T16:01:06Z) - Social Debiasing for Fair Multi-modal LLMs [59.61512883471714]
MLLM(Multi-modal Large Language Models)は、研究分野を劇的に進歩させ、強力な視覚言語理解機能を提供する。
これらのモデルは、しばしば訓練データから根深い社会的偏見を継承し、人種や性別などの属性に対する不快な反応をもたらす。
本稿では,MLLMにおける社会的バイアスの問題を,複数の社会的概念を持つ包括的対実的データセットを導入することで解決する。
論文 参考訳(メタデータ) (2024-08-13T02:08:32Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Large Language Models are Geographically Biased [47.88767211956144]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - Global-Liar: Factuality of LLMs over Time and Geographic Regions [3.715487408753612]
本研究は, GPT-3.5 や GPT-4 を含む広く採用されている GPT モデルにおける実測精度, 安定性, バイアスを評価する。
地理的および時間的表現の観点から一意にバランスのとれたデータセットである「Global-Liar」を導入する。
論文 参考訳(メタデータ) (2024-01-31T13:57:24Z) - Can Large Language Models Capture Public Opinion about Global Warming?
An Empirical Assessment of Algorithmic Fidelity and Bias [0.0]
大規模言語モデル(LLM)は、人間の知覚や行動をエミュレートすることで、社会科学研究においてその可能性を実証している。
本研究は,LLMのアルゴリズム的忠実度と偏りを,全国的に代表される2つの気候変動調査を用いて評価する。
論文 参考訳(メタデータ) (2023-11-01T01:32:59Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。