論文の概要: Generative AI Voting: Fair Collective Choice is Resilient to LLM Biases and Inconsistencies
- arxiv url: http://arxiv.org/abs/2406.11871v2
- Date: Sun, 18 Aug 2024 12:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 02:28:42.147698
- Title: Generative AI Voting: Fair Collective Choice is Resilient to LLM Biases and Inconsistencies
- Title(参考訳): ジェネレーティブAI投票: 公正な集団選択はLLMのバイアスと矛盾に耐性がある
- Authors: Srijoni Majumdar, Edith Elkind, Evangelos Pournaras,
- Abstract要約: 我々は、現実世界で初めて、直接民主主義における有権者の比例代表を示す。
また、平等な共有のような公正な投票集約手法は、より公平なAI表現を持つ人間に対するより公平な投票結果であることを示す。
- 参考スコア(独自算出の注目度): 21.444936180683147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scaling up deliberative and voting participation is a longstanding endeavor -- a cornerstone for direct democracy and legitimate collective choice. Recent breakthroughs in generative artificial intelligence (AI) and large language models (LLMs) unravel new capabilities for AI personal assistants to overcome cognitive bandwidth limitations of humans, providing decision support or even direct representation of human voters at large scale. However, the quality of this representation and what underlying biases manifest when delegating collective decision-making to LLMs is an alarming and timely challenge to tackle. By rigorously emulating with high realism more than >50K LLM voting personas in 81 real-world voting elections, we disentangle the nature of different biases in LLMS (GPT 3, GPT 3.5, and Llama2). Complex preferential ballot formats exhibit significant inconsistencies compared to simpler majoritarian elections that show higher consistency. Strikingly though, by demonstrating for the first time in real-world a proportional representation of voters in direct democracy, we are also able to show that fair ballot aggregation methods, such as equal shares, prove to be a win-win: fairer voting outcomes for humans with fairer AI representation. This novel underlying relationship proves paramount for democratic resilience in progressives scenarios with low voters turnout and voter fatigue supported by AI representatives: abstained voters are mitigated by recovering highly representative voting outcomes that are fairer. These interdisciplinary insights provide remarkable foundations for science, policymakers, and citizens to develop safeguards and resilience for AI risks in democratic innovations.
- Abstract(参考訳): 討論や投票の参加を拡大することは長年にわたる取り組みであり、直接民主主義と正統な集団選択の基盤となっている。
生成人工知能(AI)と大規模言語モデル(LLM)の最近のブレークスルーは、AIパーソナルアシスタントが人間の認知的帯域幅の制限を克服し、意思決定支援や、大規模な人間の有権者の直接表現を提供する、という新たな能力を生み出している。
しかしながら、この表現の質と、LCMに集団決定を委譲する際の根底にあるバイアスは、対処する上で危険かつタイムリーな課題である。
実世界の81の選挙において,50K以上の投票者に対して高いリアリズムを厳格にエミュレートすることにより,LLMS(GPT 3, GPT 3.5, Llama2)における異なるバイアスの性質を解消する。
複雑な選好投票形式は、より単純な多数派選挙では一貫性が増すのに対して、大きな矛盾を示している。
しかし、実世界で初めて、直接民主主義における有権者の比例表現を示すことによって、平等な株式のような公正な投票集約手法が、より公平なAI表現を持つ人間のより公平な投票結果であることを示すことができる。
この新たな関係は、低投票率とAI代表者が支持する有権者疲労による進歩主義のシナリオにおいて、民主的弾力性にとって最重要であることを証明している: 棄権された有権者は、より公平な、非常に代表的な投票結果の回復によって緩和される。
これらの学際的洞察は、科学、政策立案者、市民にとって、民主的イノベーションにおけるAIリスクに対する保護とレジリエンスを開発するための驚くべき基盤を提供する。
関連論文リスト
- Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Deceptive uses of Artificial Intelligence in elections strengthen support for AI ban [44.99833362998488]
本稿では,AIが選挙に与える影響を評価する枠組みを提案する。
我々は、AI対応のキャンペーン利用を、キャンペーンオペレーション、投票者アウトリーチ、詐欺の3つのカテゴリに分類する。
我々は,事前登録された代表者による調査から,最初の体系的な証拠を提供する。
論文 参考訳(メタデータ) (2024-08-08T12:58:20Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - LLM Voting: Human Choices and AI Collective Decision Making [0.0]
本稿では,大規模言語モデル (LLM) の投票行動,特に GPT-4 と LLaMA-2 について検討する。
投票方法の選択と提示順序がLLM投票結果に影響を及ぼすことがわかった。
さまざまな人格がこれらのバイアスの一部を減らし、人間の選択との整合性を高めることができることがわかった。
論文 参考訳(メタデータ) (2024-01-31T14:52:02Z) - Candidate Incentive Distributions: How voting methods shape electoral incentives [0.0]
Instant Runoff Votingは、Plurality Votingよりも幅広い有権者にアピールするよう、候補者にインセンティブを与える。
コンドルチェット法とSTAR (Score Then Automatic Runoff) Votingが最もバランスのとれたインセンティブを提供する。
論文 参考訳(メタデータ) (2023-06-12T14:32:46Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Modeling Voters in Multi-Winner Approval Voting [24.002910959494923]
我々は,不確実性の度合いの異なる単入投票と多入投票の投票行動について検討した。
概して、人々はより良い結果を得るために投票を操作しているが、しばしば最適な操作を特定できない。
本稿では,勝利集合の大きさと人間の認知的制約を考慮に入れた新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-12-04T19:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。