論文の概要: Toward Democracy Levels for AI
- arxiv url: http://arxiv.org/abs/2411.09222v1
- Date: Thu, 14 Nov 2024 06:37:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:24:51.036654
- Title: Toward Democracy Levels for AI
- Title(参考訳): AIの民主主義レベルに向けて
- Authors: Aviv Ovadya, Luke Thorburn, Kyle Redman, Flynn Devine, Smitha Milli, Manon Revel, Andrew Konya, Atoosa Kasirzadeh,
- Abstract要約: 我々は、あるドメインにおける決定が民主的に行われる程度を評価するための「民主主義レベル」フレームワークを提供する。
このフレームワークは (i) 民主的なAI、多元的AI、および公的なAIエコシステムのロードマップで定義するために、 (ii) 難しいAIガバナンスの質問に対する意思決定の正当性を高める必要がある組織を指導するために、 (iii) AI組織を評価して責任を負うことを目指す人々による粗悪品として使用することができる。
- 参考スコア(独自算出の注目度): 4.048639768405042
- License:
- Abstract: There is increasing concern about the unilateral power of the organizations involved in the development, alignment, and governance of AI. Recent pilots - such as Meta's Community Forums and Anthropic's Collective Constitutional AI - have illustrated a promising direction, where democratic processes might be used to meaningfully improve public involvement and trust in critical decisions. However, there is no standard framework for evaluating such processes. In this paper, building on insights from the theory and practice of deliberative democracy, we provide a "Democracy Levels" framework for evaluating the degree to which decisions in a given domain are made democratically. The framework can be used (i) to define milestones in a roadmap for the democratic AI, pluralistic AI, and public AI ecosystems, (ii) to guide organizations that need to increase the legitimacy of their decisions on difficult AI governance questions, and (iii) as a rubric by those aiming to evaluate AI organizations and keep them accountable.
- Abstract(参考訳): AIの開発、アライメント、ガバナンスに関わる組織の一方的な力に対する懸念が高まっている。
最近のパイロット(Meta's Community ForumsやAnthropic's Collective Constitutional AIなど)は、民主的プロセスが公共の関与と批判的な決定への信頼を有意義に改善するために使用される、有望な方向を示している。
しかし、そのようなプロセスを評価するための標準的なフレームワークは存在しない。
本稿では, 自由主義的民主主義の理論と実践から得られた知見に基づいて, 特定の領域における意思決定が民主的に行われる程度を評価するための「民主レベル」の枠組みを提供する。
フレームワークは使用できます
i) 民主的AI、多元的AI、パブリックAIエコシステムのロードマップでマイルストーンを定義すること。
(二)難解なAIガバナンス問題に関する意思決定の正当性を高める必要がある組織を指導すること。
(三)AI組織を評価し、説明責任を負うことを目指す者による暴言として。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Public Constitutional AI [0.0]
AI当局の権限はますます強まりつつある。
AIシステムが効果的なガバナンスに必要な正当性を確保するには、どうすればいいのか?
このエッセイは、AIの正当性を確保するためには、AIシステムの設計と制約に一般市民が関与する方法が必要である、と論じている。
論文 参考訳(メタデータ) (2024-06-24T15:00:01Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - A multilevel framework for AI governance [6.230751621285321]
政府、企業、市民が関与する多段階的なガバナンスアプローチを提案する。
ガバナンスのレベルとAIの信頼の次元が組み合わさって、ユーザエクスペリエンスをさらに強化し、AIに関連する公開ポリシーを通知するために使用できる実践的な洞察を提供する。
論文 参考訳(メタデータ) (2023-07-04T03:59:16Z) - Democratising AI: Multiple Meanings, Goals, and Methods [0.0]
多くの政党がAIの民主化を要求しているが、この言葉は様々な目標を指し、その追求は時折矛盾する。
本稿では、一般的に議論されている4種類のAI民主主義について述べる。
主な特徴は、AIの民主化は多言語であり、時には矛盾する概念であるということだ。
論文 参考訳(メタデータ) (2023-03-22T15:23:22Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。