論文の概要: How Large Language Models Systematically Misrepresent American Climate Opinions
- arxiv url: http://arxiv.org/abs/2512.23889v1
- Date: Mon, 29 Dec 2025 22:29:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.231272
- Title: How Large Language Models Systematically Misrepresent American Climate Opinions
- Title(参考訳): 大規模言語モデルがアメリカの気候にどう影響するか
- Authors: Sola Kim, Jieshu Wang, Marco A. Janssen, John M. Anderies,
- Abstract要約: グループレベルの見積もりは、アウトリーチ、コンサルティング、政策設計を誤解させる可能性がある。
これらの結果と実際の人間の反応を交差するアイデンティティで比較した研究はない。
これは特に、意見が対立し多様である気候変動にとって緊急である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federal agencies and researchers increasingly use large language models to analyze and simulate public opinion. When AI mediates between the public and policymakers, accuracy across intersecting identities becomes consequential; inaccurate group-level estimates can mislead outreach, consultation, and policy design. While research examines intersectionality in LLM outputs, no study has compared these outputs against real human responses across intersecting identities. Climate policy is one such domain, and this is particularly urgent for climate change, where opinion is contested and diverse. We investigate how LLMs represent intersectional patterns in U.S. climate opinions. We prompted six LLMs with profiles of 978 respondents from a nationally representative U.S. climate opinion survey and compared AI-generated responses to actual human answers across 20 questions. We find that LLMs appear to compress the diversity of American climate opinions, predicting less-concerned groups as more concerned and vice versa. This compression is intersectional: LLMs apply uniform gender assumptions that match reality for White and Hispanic Americans but misrepresent Black Americans, where actual gender patterns differ. These patterns, which may be invisible to standard auditing approaches, could undermine equitable climate governance.
- Abstract(参考訳): 連邦機関や研究者は、大きな言語モデルを使って世論を分析し、シミュレートしている。
世論と政策立案者の間でAIが仲介されると、アイデンティティを交差する精度が連続的に向上し、不正確なグループレベルの見積もりは、アウトリーチ、コンサルティング、ポリシー設計を誤解させる可能性がある。
LLM出力の交差性について研究する一方で、これらの出力と実際の人間の反応を交差するアイデンティティ間で比較する研究は行われていない。
気候変動政策はそのような領域の一つであり、特に意見が対立し多様である気候変動にとって緊急である。
LLMが米国気候の意見の交差パターンをどのように表すかを検討する。
私たちは6つのLCMに、全国的に代表される米国の気候変動に関する世論調査から978人の回答者のプロフィールを付け、20の質問で実際の人間の答えに対するAI生成の反応を比較しました。
LLMはアメリカの気候に関する意見の多様性を圧縮し、より関心深く、その逆を予測している。
LLMは、白人とヒスパニック系アメリカ人の現実と一致しているが、実際の性別パターンが異なる黒人アメリカ人を誤って表現する、一様性の仮定を適用している。
これらのパターンは、標準的な監査アプローチには見えないかもしれないが、公平な気候管理を損なう可能性がある。
関連論文リスト
- A Cross-Cultural Comparison of LLM-based Public Opinion Simulation: Evaluating Chinese and U.S. Models on Diverse Societies [7.778189232254147]
本研究は,オープンソース大規模言語モデル (LLM) が,IT企業によって開発されたモデルと比較して,世論をシミュレートする能力を評価するものである。
以上の結果から,DeepSeek-V3は中絶問題に対する米国の意見のシミュレートに最善を尽くしていることが明らかとなった。
中国のサンプルでは、DeepSeek-V3は、外国援助や個人主義についての意見をシミュレートする上で最善を尽くしているが、資本主義に関するモデリングの観点には限界がある。
論文 参考訳(メタデータ) (2025-06-17T19:19:14Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Can Large Language Models Capture Public Opinion about Global Warming?
An Empirical Assessment of Algorithmic Fidelity and Bias [0.0]
大規模言語モデル(LLM)は、人間の知覚や行動をエミュレートすることで、社会科学研究においてその可能性を実証している。
本研究は,LLMのアルゴリズム的忠実度と偏りを,全国的に代表される2つの気候変動調査を用いて評価する。
論文 参考訳(メタデータ) (2023-11-01T01:32:59Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。