論文の概要: On Large Language Models as Data Sources for Policy Deliberation on Climate Change and Sustainability
- arxiv url: http://arxiv.org/abs/2503.05708v1
- Date: Thu, 13 Feb 2025 21:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 10:18:14.423816
- Title: On Large Language Models as Data Sources for Policy Deliberation on Climate Change and Sustainability
- Title(参考訳): 気候変動と持続可能性に関する政策検討のためのデータソースとしての大規模言語モデルについて
- Authors: Rachel Bina, Kha Luong, Shrey Mehta, Daphne Pang, Mingjun Xie, Christine Chou, Steven O. Kimbrough,
- Abstract要約: われわれは、米国の地方自治体が積極的に検討している、興味深い政策代替案をいくつか挙げる。
我々は、GPT-4を用いて、複数の基準に対するポリシーの評価スコアを得る。
我々は,TOPSISに基づく政策ランキングと情報評価演習により得られたスコアのテーブルアンサンブルの品質と妥当性を比較検討した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We pose the research question, "Can LLMs provide credible evaluation scores, suitable for constructing starter MCDM models that support commencing deliberation regarding climate and sustainability policies?" In this exploratory study we i. Identify a number of interesting policy alternatives that are actively considered by local governments in the United States (and indeed around the world). ii. Identify a number of quality-of-life indicators as apt evaluation criteria for these policies. iii. Use GPT-4 to obtain evaluation scores for the policies on multiple criteria. iv. Use the TOPSIS MCDM method to rank the policies based on the obtained evaluation scores. v. Evaluate the quality and validity of the resulting table ensemble of scores by comparing the TOPSIS-based policy rankings with those obtained by an informed assessment exercise. We find that GPT-4 is in rough agreement with the policy rankings of our informed assessment exercise. Hence, we conclude (always provisionally and assuming a modest level of vetting) that GPT-4 can be used as a credible input, even starting point, for subsequent deliberation processes on climate and sustainability policies.
- Abstract(参考訳): 気候・持続可能性政策に関する議論を支援するスターターMCDMモデルの構築に適した信頼性評価スコアを提供する。
この探索的研究では、私です。
アメリカ合衆国(そして実際は世界中)の地方自治体が積極的に検討している、興味深い政策代替案をいくつか特定する。
私は...
多くのQOL指標を、これらのポリシーの適応評価基準として特定する。
iii
GPT-4を使用して、複数の基準でポリシーの評価スコアを取得する。
iv
TOPSIS MCDM法を用いて、得られた評価スコアに基づいてポリシーをランク付けする。
五 結果の表の集合の質及び妥当性を、TOPSISに基づく政策ランキングと、インフォメーションアセスメントにより得られたスコアとを比較して評価すること。
GPT-4は、我々のインフォメーションアセスメント演習の政策ランキングと大まかに一致していることがわかった。
したがって、気候及び持続可能性政策に関するその後の検討プロセスにおいて、GPT-4を信頼性のある入力、出発点としても使用できると結論付けている。
関連論文リスト
- Evaluating Step-by-step Reasoning Traces: A Survey [3.895864050325129]
評価基準を4つのトップレベルカテゴリ(基底性、妥当性、コヒーレンス、有用性)で分類することを提案する。
次に、それらの実装に基づいてメトリクスを分類し、それぞれの基準を評価するために使用されるメトリクスを調査し、評価モデルが異なる基準をまたいで転送できるかどうかを調査する。
論文 参考訳(メタデータ) (2025-02-17T19:58:31Z) - When is Off-Policy Evaluation (Reward Modeling) Useful in Contextual Bandits? A Data-Centric Perspective [64.73162159837956]
ログ化されたデータセットだけで仮説的ターゲットポリシーの価値を評価することは重要だが、難しい。
データ中心のフレームワークであるDataCOPEを提案する。
医療データセットを用いたログ化された文脈的帯域設定におけるDataCOPEの実証分析により、機械学習と人間の専門家ポリシーの両方を評価する能力が確認された。
論文 参考訳(メタデータ) (2023-11-23T17:13:37Z) - Conformal Off-Policy Evaluation in Markov Decision Processes [53.786439742572995]
強化学習は、データから効率的な制御ポリシーを特定し評価することを目的としている。
この学習タスクのほとんどの方法は、Off-Policy Evaluation (OPE)と呼ばれ、正確さと確実性を保証するものではない。
本稿では,目標方針の真報を含む区間を所定の確信度で出力するコンフォーマル予測に基づく新しいOPE手法を提案する。
論文 参考訳(メタデータ) (2023-04-05T16:45:11Z) - Reinforcement Learning with Heterogeneous Data: Estimation and Inference [84.72174994749305]
人口の不均一性に関する逐次的決定問題に対処するために,K-ヘテロ・マルコフ決定過程(K-ヘテロ・MDP)を導入する。
本稿では、ある政策の価値を推定するための自己クラスタ化政策評価(ACPE)と、ある政策クラスにおける最適な政策を推定するための自己クラスタ化政策イテレーション(ACPI)を提案する。
理論的な知見を裏付けるシミュレーションを行い,MIMIC-III標準データセットの実証的研究を行った。
論文 参考訳(メタデータ) (2022-01-31T20:58:47Z) - Supervised Off-Policy Ranking [145.3039527243585]
オフポリシー評価(OPE)は、他のポリシーによって生成されたデータを活用して、ターゲットポリシーを評価する。
本稿では,訓練方針と既知の実績を正しくランク付けすることで,政策スコアリングモデルを学習する教師付き非政治ランキングを提案する。
本手法は,上位3つのポリシーのうち,最良と最良の双方のランク相関と性能差の両面から,強力なベースラインOPE法より優れる。
論文 参考訳(メタデータ) (2021-07-03T07:01:23Z) - Offline Policy Comparison under Limited Historical Agent-Environment
Interactions [0.0]
強化学習システムの現実的な応用における政策評価の課題に対処する。
我々は,利用可能な歴史データに基づいて,政策比較,すなわち,その価値の観点から,政策のランク付けを行うことを提案する。
論文 参考訳(メタデータ) (2021-06-07T19:51:00Z) - Offline Policy Selection under Uncertainty [113.57441913299868]
我々は、オフラインポリシーの選択を、一定の経験データセットを与えられた政策予測のセットよりも学習の選好とみなす。
政策価値に対する信念に対する完全な分布へのアクセスは、より幅広い下流評価指標の下でより柔軟な選択アルゴリズムを可能にする。
BayesDICEが任意の下流ポリシー選択メトリックに関してポリシーのランク付けにどのように使用されるかを示します。
論文 参考訳(メタデータ) (2020-12-12T23:09:21Z) - A Practical Guide of Off-Policy Evaluation for Bandit Problems [13.607327477092877]
オフ政治評価(OPE)とは、異なる政策によって得られたサンプルから対象政策の価値を推定する問題である。
既存のOPE推定器に基づくメタアルゴリズムを提案する。
実験において,人工的およびオープンな実世界のデータセットを用いて提案する概念について検討する。
論文 参考訳(メタデータ) (2020-10-23T15:11:19Z) - Efficient Evaluation of Natural Stochastic Policies in Offline
Reinforcement Learning [80.42316902296832]
行動政策から逸脱した観点から定義される自然政策の効果的な非政治的評価について検討する。
これは、ほとんどの著作が明示された政策の評価を考慮に入れている、政治外の評価に関する文献から逸脱している。
論文 参考訳(メタデータ) (2020-06-06T15:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。