論文の概要: Democratic Policy Development using Collective Dialogues and AI
- arxiv url: http://arxiv.org/abs/2311.02242v1
- Date: Fri, 3 Nov 2023 21:12:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 18:45:51.615267
- Title: Democratic Policy Development using Collective Dialogues and AI
- Title(参考訳): 集合対話とAIを用いた民主政策開発
- Authors: Andrew Konya, Lisa Schirch, Colin Irwin, Aviv Ovadya
- Abstract要約: 我々は、情報公開の意思を反映した政策を開発するための効率的な民主的プロセスを設計し、テストする。
このプロセスはAIを利用した集団対話によって、大規模な議論を民主的に実行可能にすると同時に、自動コンセンサス発見のためのブリッジングベースのランキングも組み合わされる。
我々は、医療アドバイス、ワクチン情報、戦争と紛争に関連するAIアシスタントのためのポリシーガイドラインを米国内で3回テストしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We design and test an efficient democratic process for developing policies
that reflect informed public will. The process combines AI-enabled collective
dialogues that make deliberation democratically viable at scale with
bridging-based ranking for automated consensus discovery. A GPT4-powered
pipeline translates points of consensus into representative policy clauses from
which an initial policy is assembled. The initial policy is iteratively refined
with the input of experts and the public before a final vote and evaluation. We
test the process three times with the US public, developing policy guidelines
for AI assistants related to medical advice, vaccine information, and wars &
conflicts. We show the process can be run in two weeks with 1500+ participants
for around $10,000, and that it generates policy guidelines with strong public
support across demographic divides. We measure 75-81% support for the policy
guidelines overall, and no less than 70-75% support across demographic splits
spanning age, gender, religion, race, education, and political party. Overall,
this work demonstrates an end-to-end proof of concept for a process we believe
can help AI labs develop common-ground policies, governing bodies break
political gridlock, and diplomats accelerate peace deals.
- Abstract(参考訳): 我々は、情報公開意思を反映した政策を開発するための効率的な民主的プロセスを設計し、テストする。
このプロセスはAIを利用した集団対話によって、大規模な議論を民主的に実行可能にする。
GPT4ベースのパイプラインは、コンセンサスポイントを、初期ポリシーが組み立てられる代表ポリシー条項に変換する。
最初の政策は、最終投票と評価の前に専門家と一般人の入力によって反復的に洗練される。
我々は、医療アドバイス、ワクチン情報、戦争と紛争に関連するAIアシスタントのためのポリシーガイドラインを米国内で3回テストしている。
1500人以上の参加者が1万ドル程度で2週間でプロセスが実行でき、人口格差にまたがる公共支援の強い政策ガイドラインが作成できる。
政策ガイドライン全体に対する75~81%の支持を測るとともに、年齢、性別、宗教、人種、教育、政党にまたがる人口格差を70~75%に満たない。
全体として、この研究は、AIラボが共通の政策を策定し、統治団体が政治網を破り、外交官が和平交渉を加速するのに役立つと信じているプロセスの、エンドツーエンドの概念実証である。
関連論文リスト
- From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - L(u)PIN: LLM-based Political Ideology Nowcasting [1.124958340749622]
LLMの潜在的知識を活用することで,各議員のイデオロギー的立場を分析する手法を提案する。
この方法により、選択の軸として政治家のスタンスを評価することができ、選択の話題・論争に関して政治家のスタンスを柔軟に測定することができる。
論文 参考訳(メタデータ) (2024-05-12T16:14:07Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Demonstrations of the Potential of AI-based Political Issue Polling [0.0]
そこで我々は,ChatGPTから人間ライクなサーベイ応答を抽出するための迅速なエンジニアリング手法を開発した。
我々は大規模な実験を行い、人間の調査よりもはるかに低コストで何千ものシミュレーションされた応答を問い合わせる。
ChatGPTは,様々な政策問題について,世論の平均レベルと分布の両方を予測するのに有効である。
しかし、人口レベルでの違いを予想することは成功していない。
論文 参考訳(メタデータ) (2023-07-10T12:17:15Z) - Democratising AI: Multiple Meanings, Goals, and Methods [0.0]
多くの政党がAIの民主化を要求しているが、この言葉は様々な目標を指し、その追求は時折矛盾する。
本稿では、一般的に議論されている4種類のAI民主主義について述べる。
主な特徴は、AIの民主化は多言語であり、時には矛盾する概念であるということだ。
論文 参考訳(メタデータ) (2023-03-22T15:23:22Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Supervised Off-Policy Ranking [145.3039527243585]
オフポリシー評価(OPE)は、他のポリシーによって生成されたデータを活用して、ターゲットポリシーを評価する。
本稿では,訓練方針と既知の実績を正しくランク付けすることで,政策スコアリングモデルを学習する教師付き非政治ランキングを提案する。
本手法は,上位3つのポリシーのうち,最良と最良の双方のランク相関と性能差の両面から,強力なベースラインOPE法より優れる。
論文 参考訳(メタデータ) (2021-07-03T07:01:23Z) - Goal-Conditioned Reinforcement Learning with Imagined Subgoals [89.67840168694259]
我々は、複雑なタスクの学習を容易にするために、想像上のサブゴールをポリシー学習に組み込むことを提案する。
想像上のサブゴールは、政策と批判を同時に訓練する独立したハイレベルな政策によって予測される。
複雑なロボットナビゲーションと操作タスクに対する我々のアプローチを評価し、既存の手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2021-07-01T15:30:59Z) - Learning Goal-oriented Dialogue Policy with Opposite Agent Awareness [116.804536884437]
本稿では,目標指向対話における政策学習のための逆行動認識フレームワークを提案する。
我々は、その行動から相手エージェントの方針を推定し、この推定を用いてターゲットエージェントを対象ポリシーの一部として関連づけて改善する。
論文 参考訳(メタデータ) (2020-04-21T03:13:44Z) - Policy Evaluation Networks [50.53250641051648]
我々は,簡潔な埋め込みにおいて重要なポリシー情報を保持できる,スケーラブルで差別化可能なフィンガープリント機構を導入する。
実験の結果、これらの3つの要素を組み合わせることで、トレーニングデータを生成するものよりも優れたポリシーを作成できることが示された。
論文 参考訳(メタデータ) (2020-02-26T23:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。