論文の概要: What Would an LLM Do? Evaluating Policymaking Capabilities of Large Language Models
- arxiv url: http://arxiv.org/abs/2509.03827v1
- Date: Thu, 04 Sep 2025 02:28:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.023394
- Title: What Would an LLM Do? Evaluating Policymaking Capabilities of Large Language Models
- Title(参考訳): LLMがやるべきことは何か? 大規模言語モデルの政策立案能力の評価
- Authors: Pierre Le Coz, Jia An Liu, Debarun Bhattacharjya, Georgina Curto, Serge Stinckwich,
- Abstract要約: 本稿は,大規模言語モデル(LLM)が,ホームレスの緩和をテーマとした社会政策決定に,ドメインエキスパートと協調しているかどうかを評価する。
4つの地域をまたいだ政策選択を伴う意思決定シナリオからなる新しいベンチマークを開発する。
本稿では,ベンチマークされたポリシーをエージェントベースモデルに接続する自動パイプラインを提案する。
- 参考スコア(独自算出の注目度): 13.022045946656661
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) are increasingly being adopted in high-stakes domains. Their capacity to process vast amounts of unstructured data, explore flexible scenarios, and handle a diversity of contextual factors can make them uniquely suited to provide new insights for the complexity of social policymaking. This article evaluates whether LLMs' are aligned with domain experts (and among themselves) to inform social policymaking on the subject of homelessness alleviation - a challenge affecting over 150 million people worldwide. We develop a novel benchmark comprised of decision scenarios with policy choices across four geographies (South Bend, USA; Barcelona, Spain; Johannesburg, South Africa; Macau SAR, China). The policies in scope are grounded in the conceptual framework of the Capability Approach for human development. We also present an automated pipeline that connects the benchmarked policies to an agent-based model, and we explore the social impact of the recommended policies through simulated social scenarios. The paper results reveal promising potential to leverage LLMs for social policy making. If responsible guardrails and contextual calibrations are introduced in collaboration with local domain experts, LLMs can provide humans with valuable insights, in the form of alternative policies at scale.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ハイテイクドメインでますます採用されている。
膨大な量の非構造化データを処理し、柔軟なシナリオを探索し、コンテキスト要因の多様性を扱う能力は、社会的政策決定の複雑さに対する新たな洞察を提供するのに一意に適している。
本稿は、LLMが、ホームレス緩和の課題である、世界中の1億5000万人以上の人々に影響を及ぼす課題について、社会政策を通知するために、ドメインの専門家(およびその内)と協力しているかどうかを評価する。
筆者らは,南ベンド,アメリカ,バルセロナ,スペイン,南アフリカのヨハネスブルグ,マカオSAR,中国)の4つの地域にわたる政策選択による決定シナリオからなる新しいベンチマークを開発した。
範囲内の政策は、人間開発のための能力的アプローチの概念的枠組みに根ざしている。
また、ベンチマークされたポリシーをエージェントベースモデルに接続する自動パイプラインを提案し、シミュレーションされた社会的シナリオを通して推奨されたポリシーの社会的影響について検討する。
本稿は, LLMを社会政策の立案に活用する有望な可能性を明らかにした。
責任あるガードレールとコンテキストキャリブレーションが、地元のドメインの専門家と共同で導入された場合、LLMは、大規模な代替ポリシーの形で、人間に貴重な洞察を提供することができる。
関連論文リスト
- Can Large Language Models Become Policy Refinement Partners? Evidence from China's Social Security Studies [10.816677663320547]
本研究では,中国の社会保障問題に対する政策レコメンデーション作成における大規模言語モデル(LLM)の機能境界と性能特性について検討した。
LLMは、複雑な社会的ダイナミクスへの対処、利害のバランス、社会保障領域内の財政リスクの制御において、重大な制限に直面している。
DeepSeek-R1は、ポリシーレコメンデーション生成におけるすべての評価次元において、GPT-4oよりも優れた性能を示す。
論文 参考訳(メタデータ) (2025-04-12T08:50:12Z) - Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - AI Language Models Could Both Help and Harm Equity in Marine
Policymaking: The Case Study of the BBNJ Question-Answering Bot [3.643615070316831]
ChatGPTのような大規模言語モデル(LLM)は、ポリシー作成プロセスのいくつかの側面を再形成するように設定されている。
LLMが政策交渉において意思決定者の間でよりバランスのとれた足場を促進するのに使えることを慎重に期待している」と述べた。
しかし、このリスクは特に環境政策や海洋政策に関係している。
論文 参考訳(メタデータ) (2024-03-04T06:21:02Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。