論文の概要: Large Language Models (LLMs) as Agents for Augmented Democracy
- arxiv url: http://arxiv.org/abs/2405.03452v2
- Date: Tue, 7 May 2024 08:57:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 13:00:13.475115
- Title: Large Language Models (LLMs) as Agents for Augmented Democracy
- Title(参考訳): 民主化のためのエージェントとしての大規模言語モデル(LLM)
- Authors: Jairo Gudiño-Rosero, Umberto Grandi, César A. Hidalgo,
- Abstract要約: 我々は、個別の嗜好を要約したデータに基づいて、市販のLLM上に構築された拡張民主主義システムの能力について検討する。
被験者の個別の政治的選択と参加者の全サンプルの集合的選好の両方をLLMが予測する精度を推定するために、列車試験のクロスバリデーション・セットアップを使用する。
- 参考スコア(独自算出の注目度): 6.491009626125319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the capabilities of an augmented democracy system built on off-the-shelf LLMs fine-tuned on data summarizing individual preferences across 67 policy proposals collected during the 2022 Brazilian presidential elections. We use a train-test cross-validation setup to estimate the accuracy with which the LLMs predict both: a subject's individual political choices and the aggregate preferences of the full sample of participants. At the individual level, the accuracy of the out of sample predictions lie in the range 69%-76% and are significantly better at predicting the preferences of liberal and college educated participants. At the population level, we aggregate preferences using an adaptation of the Borda score and compare the ranking of policy proposals obtained from a probabilistic sample of participants and from data augmented using LLMs. We find that the augmented data predicts the preferences of the full population of participants better than probabilistic samples alone when these represent less than 30% to 40% of the total population. These results indicate that LLMs are potentially useful for the construction of systems of augmented democracy.
- Abstract(参考訳): 我々は、2022年のブラジル大統領選挙で収集された67の政策提案にまたがる個人の嗜好を要約したデータに基づいて、市販のLLM上に構築された拡張民主主義システムの能力について検討する。
被験者の個別の政治的選択と参加者の全サンプルの集合的選好の両方をLLMが予測する精度を推定するために、列車試験のクロスバリデーション・セットアップを使用する。
個人レベルでは、サンプル予測の精度は69%-76%の範囲にあり、リベラルおよび大学教育の参加者の嗜好を予測するのに非常に優れている。
人口レベルでは、ボルダスコアの適応を用いて嗜好を集計し、参加者の確率的サンプルとLLMを用いたデータから得られた政策提案のランキングを比較した。
その結果,全人口の30%から40%に満たない場合には,確率的サンプルのみよりも全人口の嗜好を予測できることがわかった。
これらの結果から, LLMは民主化の強化システム構築に有用である可能性が示唆された。
関連論文リスト
- Vox Populi, Vox AI? Using Language Models to Estimate German Public Opinion [45.84205238554709]
我々は,2017年ドイツ縦断選挙研究の回答者の個人特性と一致するペルソナの合成サンプルを生成した。
我々は,LSM GPT-3.5に対して,各回答者の投票選択を予測し,これらの予測を調査に基づく推定と比較する。
GPT-3.5は市民の投票選択を正確に予測せず、緑の党と左派に偏見を呈している。
論文 参考訳(メタデータ) (2024-07-11T14:52:18Z) - Investigating LLMs as Voting Assistants via Contextual Augmentation: A Case Study on the European Parliament Elections 2024 [22.471701390730185]
最近の研究は、大規模言語モデルにおける政治的偏見と政治的推論能力を探究している。
2024年の欧州議会議員選挙では、LLMsがVoting Advice Applications (VAA)として利用できるかどうかを調査している。
我々は、MISTRALとMIXTRALモデルを評価し、最新の「EUとI」投票支援アンケートに基づいて、政党の姿勢を予測する際の精度を評価した。
論文 参考訳(メタデータ) (2024-07-11T13:29:28Z) - Aligning Crowd Feedback via Distributional Preference Reward Modeling [28.754532173765686]
本研究では,大規模言語モデルと多様な人間の嗜好を一致させるために,DPRM(Distributedal Preference Reward Model)を提案する。
実験の結果,DPRM は LLM と人口嗜好の整合性を著しく向上させ,より正確で偏りがなく,文脈的に適切な応答をもたらすことが示された。
論文 参考訳(メタデータ) (2024-02-15T07:29:43Z) - How to Train Data-Efficient LLMs [56.41105687693619]
事前学習言語モデル(LLM)に対するデータ効率のアプローチについて検討する。
Ask-LLMと密度サンプリングがそれぞれのカテゴリで最適であることがわかった。
何百もの評価タスクと事前学習作業を含む19個のサンプルを比較したところ,Ask-LLMと密度がそれぞれのカテゴリで最適な方法であることが判明した。
論文 参考訳(メタデータ) (2024-02-15T02:27:57Z) - LLM Voting: Human Choices and AI Collective Decision Making [0.0]
本稿では,大規模言語モデル(LLM)の投票行動,特にGPT-4とLLaMA-2の偏り,人間の投票パターンの整合性について検討する。
投票方法や選択の提示方法がLLM投票行動に影響を及ぼすことがわかった。
さまざまな人格がこれらのバイアスの一部を減らし、人間の選択との整合性を高めることができることがわかった。
論文 参考訳(メタデータ) (2024-01-31T14:52:02Z) - Adaptation with Self-Evaluation to Improve Selective Prediction in LLMs [56.526095828316386]
大規模言語モデル(LLM)の選択予測性能を改善するために,自己評価による適応のための新しいフレームワークを提案する。
提案手法は,様々な質問応答(QA)データセット上で評価し,最先端の選択的予測手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-18T03:34:59Z) - Large Language Models Are Not Robust Multiple Choice Selectors [117.72712117510953]
複数選択質問(MCQ)は、大規模言語モデル(LLM)の評価において、一般的なが重要なタスク形式として機能する。
この研究は、現代のLLMが、その固有の「選択バイアス」によるオプション位置変化に対して脆弱であることを示している。
そこで本研究では,オプションIDに対する事前バイアスを全体予測分布から分離するPriDeという,ラベルのない推論時間脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T17:44:56Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Predicting United States policy outcomes with Random Forests [0.0]
20年間の政府の立法成果と富裕層、一般人口、多様な利害団体の政策選好は、ギレンズ、ペイジらによってキュレーションされ分析された詳細なデータセットで収集された。
その結果,富裕層の嗜好は政策の結果と強く相関することがわかったが,一般住民の嗜好は富裕層の嗜好と結びついてはいないことがわかった。
本研究は,それぞれ予測と推測の2つの主要な知見を提示する。
論文 参考訳(メタデータ) (2020-08-02T18:06:57Z) - Electoral Forecasting Using a Novel Temporal Attenuation Model:
Predicting the US Presidential Elections [91.3755431537592]
予備選別世論調査データを用いて予測精度を向上させる新しいマクロスケール時間減衰(TA)モデルを開発した。
我々の仮説は、世論調査を公表するタイミングは、特に選挙直前の世論の変動に重要な役割を果たす、というものである。
我々は,48年間の平均予測誤差2.8-3.28点を蓄積するTAモデルの2つの異なる実装を提案する。
論文 参考訳(メタデータ) (2020-04-30T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。