論文の概要: Generative AI Voting: Fair Collective Choice is Resilient to LLM Biases and Inconsistencies
- arxiv url: http://arxiv.org/abs/2406.11871v1
- Date: Fri, 31 May 2024 01:41:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-23 13:24:48.412789
- Title: Generative AI Voting: Fair Collective Choice is Resilient to LLM Biases and Inconsistencies
- Title(参考訳): ジェネレーティブAI投票: 公正な集団選択はLLMのバイアスと矛盾に耐性がある
- Authors: Srijoni Majumdar, Edith Elkind, Evangelos Pournaras,
- Abstract要約: 異なるLLMには、複雑な優先投票形式におけるバイアスと重大な矛盾があることが示される。
興味深いことに、平等な株式のような公正投票の集計手法は、より公平なAI表現を持つ人間に対するより公平な投票結果として、勝利を証明している。
- 参考スコア(独自算出の注目度): 21.444936180683147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scaling up deliberative and voting participation is a longstanding endeavor -- a cornerstone for direct democracy and legitimate collective choice. Recent breakthroughs in generative artificial intelligence (AI) and large language models (LLMs) provide unprecedented opportunities, but also alerting risks for digital democracy. AI personal assistants can overcome cognitive bandwidth limitations of humans, providing decision support capabilities or even direct AI representation of human voters at large scale. However, the quality of this representation and what underlying biases manifest when delegating collective decision making to LLMs is an alarming and timely challenge to tackle. By rigorously emulating with high realism more than >50K LLM voting personas in 81 real-world voting elections, we show that different LLMs (GPT 3, GPT 3.5, and Llama2) come with biases and significant inconsistencies in complex preferential ballot formats, compared to simpler and more consistent majoritarian elections. Strikingly, fair voting aggregation methods, such as equal shares, prove to be a win-win: fairer voting outcomes for humans with fairer AI representation. This novel underlying relationship proves paramount for democratic resilience in progressives scenarios with low voters turnout and voter fatigue supported by AI representatives: abstained voters are mitigated by recovering highly representative voting outcomes that are fairer. These insights provide remarkable foundations for science, policymakers and citizens in explaining and mitigating AI risks in democratic innovations.
- Abstract(参考訳): 討論や投票の参加を拡大することは長年にわたる取り組みであり、直接民主主義と正統な集団選択の基盤となっている。
生成人工知能(AI)と大規模言語モデル(LLM)の最近のブレークスルーは、前例のない機会を提供するが、デジタル民主主義のリスクを警告する。
AIパーソナルアシスタントは、人間の認知帯域幅の制限を克服し、意思決定支援機能や、大規模な人間の有権者の直接AI表現を提供する。
しかしながら、この表現の質と、LCMに集団決定を委譲する際の根底にあるバイアスは、対処する上での脅威であり、タイムリーな課題である。
実世界の81の選挙において,50K以上の投票者に対して高いリアリズムを厳格にエミュレートすることにより,より単純で一貫した主要主義選挙と比較して,異なる LLM (GPT 3, GPT 3.5, Llama2) に偏りがあり,複雑な優先投票形式に重大な矛盾があることが示される。
興味深いことに、平等な株式のような公正投票の集計手法は、より公平なAI表現を持つ人間に対するより公平な投票結果として、勝利を証明している。
この新たな基盤となる関係は、低投票率とAI代表者が支持する有権者疲労による進歩主義のシナリオにおける民主的レジリエンスの最高峰を証明している: 棄権された有権者は、より公平な、非常に代表的な投票結果を取り戻すことで緩和される。
これらの洞察は、民主的イノベーションにおけるAIリスクの説明と緩和において、科学、政策立案者、市民に顕著な基盤を提供する。
関連論文リスト
- Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Deceptive uses of Artificial Intelligence in elections strengthen support for AI ban [44.99833362998488]
本稿では,AIが選挙に与える影響を評価する枠組みを提案する。
我々は、AI対応のキャンペーン利用を、キャンペーンオペレーション、投票者アウトリーチ、詐欺の3つのカテゴリに分類する。
我々は,事前登録された代表者による調査から,最初の体系的な証拠を提供する。
論文 参考訳(メタデータ) (2024-08-08T12:58:20Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - LLM Voting: Human Choices and AI Collective Decision Making [0.0]
本稿では,大規模言語モデル (LLM) の投票行動,特に GPT-4 と LLaMA-2 について検討する。
投票方法の選択と提示順序がLLM投票結果に影響を及ぼすことがわかった。
さまざまな人格がこれらのバイアスの一部を減らし、人間の選択との整合性を高めることができることがわかった。
論文 参考訳(メタデータ) (2024-01-31T14:52:02Z) - Candidate Incentive Distributions: How voting methods shape electoral incentives [0.0]
Instant Runoff Votingは、Plurality Votingよりも幅広い有権者にアピールするよう、候補者にインセンティブを与える。
コンドルチェット法とSTAR (Score Then Automatic Runoff) Votingが最もバランスのとれたインセンティブを提供する。
論文 参考訳(メタデータ) (2023-06-12T14:32:46Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Modeling Voters in Multi-Winner Approval Voting [24.002910959494923]
我々は,不確実性の度合いの異なる単入投票と多入投票の投票行動について検討した。
概して、人々はより良い結果を得るために投票を操作しているが、しばしば最適な操作を特定できない。
本稿では,勝利集合の大きさと人間の認知的制約を考慮に入れた新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-12-04T19:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。