論文の概要: Justifications for Democratizing AI Alignment and Their Prospects
- arxiv url: http://arxiv.org/abs/2507.19548v1
- Date: Thu, 24 Jul 2025 17:16:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:55.579457
- Title: Justifications for Democratizing AI Alignment and Their Prospects
- Title(参考訳): AIアライメントの民主化の正当性とその展望
- Authors: André Steingrüber, Kevin Baum,
- Abstract要約: 我々は、民主主義的アプローチは、理論的正当化よりも政治的に満たすことを目的とした正当化的ギャップを埋めることを目的としていると論じる。
我々は、民主的アプローチにおける重要な課題、特にAIアライメントによる不正な強制の防止について同定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The AI alignment problem comprises both technical and normative dimensions. While technical solutions focus on implementing normative constraints in AI systems, the normative problem concerns determining what these constraints should be. This paper examines justifications for democratic approaches to the normative problem -- where affected stakeholders determine AI alignment -- as opposed to epistocratic approaches that defer to normative experts. We analyze both instrumental justifications (democratic approaches produce better outcomes) and non-instrumental justifications (democratic approaches prevent illegitimate authority or coercion). We argue that normative and metanormative uncertainty create a justificatory gap that democratic approaches aim to fill through political rather than theoretical justification. However, we identify significant challenges for democratic approaches, particularly regarding the prevention of illegitimate coercion through AI alignment. Our analysis suggests that neither purely epistocratic nor purely democratic approaches may be sufficient on their own, pointing toward hybrid frameworks that combine expert judgment with participatory input alongside institutional safeguards against AI monopolization.
- Abstract(参考訳): AIアライメント問題は、技術的な次元と規範的な次元の両方から構成される。
技術的な解決策はAIシステムにおける規範的制約の実装に重点を置いているが、規範的問題はこれらの制約が何であるべきかを決定することである。
本稿では、規範的専門家を軽視するエピストクラティックアプローチとは対照的に、規範的問題に対する民主的アプローチ -- 影響のあるステークホルダーがAIアライメントを決定する -- に対する正当化について検討する。
手段的正当化(民主的アプローチはより良い結果をもたらす)と非制度的正当化(民主的アプローチは不正な権威や強制を防ぐ)の両方を分析する。
我々は、規範的およびメタノルミ的不確実性は、民主主義的アプローチが理論的正当化よりも政治的に満たそうとする正当化的ギャップを生んでいると論じる。
しかし、民主的アプローチにおける重要な課題、特にAIアライメントによる不正な強制の防止について同定する。
我々の分析は、純粋にエピストクラシー的でも純粋に民主的なアプローチでも十分ではないことを示唆し、専門家の判断と参加型入力を組み合わせたハイブリッドフレームワークと、AIの独占に対する制度的保護とを結びつけることを示唆している。
関連論文リスト
- Aligning Trustworthy AI with Democracy: A Dual Taxonomy of Opportunities and Risks [26.916552909766118]
本稿では、AIと民主主義の複雑な関係を評価するための二重分類法を提案する。
AIRD分類法は、AIが自律性、公正性、信頼といった中核的な民主主義の原則を台無しにする方法を特定する。
AIPD分類は、透明性、参加、効率、エビデンスに基づく政策決定を強化するAIの可能性を強調している。
論文 参考訳(メタデータ) (2025-05-19T10:51:08Z) - Achieving Socio-Economic Parity through the Lens of EU AI Act [11.550643687258738]
不公平な治療と差別は、AIシステムにおいて重要な倫理的関心事である。
最近のEU AI Actの導入は、AIイノベーションと投資の法的確実性を保証するための統一された法的枠組みを確立している。
本稿では、社会経済状態(SES)を取り入れた新たな公正概念である社会経済パリティ(SEP)を提案し、未成年集団に対する肯定的な行動を促進する。
論文 参考訳(メタデータ) (2025-03-29T12:27:27Z) - Democratizing AI Governance: Balancing Expertise and Public Participation [1.0878040851638]
人工知能(AI)システムの開発と展開は、その大きな社会的影響とともに、ガバナンスにとって重要な課題を提起している。
本稿では、専門家主導による監視と民主的参加の緊張関係を考察し、参加型と熟考型民主主義のモデルを分析する。
これらのアプローチを欧州連合に合わせたバランスの取れたガバナンスモデルに統合するための勧告が提供されている。
論文 参考訳(メタデータ) (2025-01-16T17:47:33Z) - Democratic AI is Possible. The Democracy Levels Framework Shows How It Might Work [10.45161883458636]
このポジションペーパーでは、事実上「AIを民主化する」には、民主的なガバナンスとAIの整合性が必要だと論じている。
私たちは、民主的なAIが今後どうなるかを探るため、"民主主義レベル"フレームワークと関連するツールを提供しています。
論文 参考訳(メタデータ) (2024-11-14T06:37:45Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Aligning AI with Public Values: Deliberation and Decision-Making for Governing Multimodal LLMs in Political Video Analysis [48.14390493099495]
AIモデルが政治的トピックにどう対処すべきかは議論されているが、依然として困難であり、より優れたガバナンスが必要である。
本稿では、政治的に敏感なビデオを中心に、個人的および集団的な議論を通じて、大規模言語モデルのガバナンスについて検討する。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Open Problems in Technical AI Governance [102.19067750759471]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Public Constitutional AI [0.0]
AI当局の権限はますます強まりつつある。
AIシステムが効果的なガバナンスに必要な正当性を確保するには、どうすればいいのか?
このエッセイは、AIの正当性を確保するためには、AIシステムの設計と制約に一般市民が関与する方法が必要である、と論じている。
論文 参考訳(メタデータ) (2024-06-24T15:00:01Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Contestable Black Boxes [10.552465253379134]
本稿では,アルゴリズムブラックボックスが関与する際の競合プロセスに必要な保証の種類について検討する。
本論では, 自動意思決定を評価するための補完的手法を考案した。
論文 参考訳(メタデータ) (2020-06-09T09:09:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。