論文の概要: The Last Vote: A Multi-Stakeholder Framework for Language Model Governance
- arxiv url: http://arxiv.org/abs/2511.13432v1
- Date: Mon, 17 Nov 2025 14:44:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.309086
- Title: The Last Vote: A Multi-Stakeholder Framework for Language Model Governance
- Title(参考訳): The Last Vote: 言語モデルガバナンスのためのマルチステークホルダフレームワーク
- Authors: Subramanyam Sahoo, Aditi Chhawacharia,
- Abstract要約: 我々は、AIが民主社会にもたらすあらゆるリスクに対処する枠組みを提案する。
当社のアプローチは、マルチステークホルダー参加、市民社会参加、および既存の国際ガバナンスフレームワークを統合している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence systems become increasingly powerful and pervasive, democratic societies face unprecedented challenges in governing these technologies while preserving core democratic values and institutions. This paper presents a comprehensive framework to address the full spectrum of risks that AI poses to democratic societies. Our approach integrates multi-stakeholder participation, civil society engagement, and existing international governance frameworks while introducing novel mechanisms for risk assessment and institutional adaptation. We propose: (1) a seven-category democratic risk taxonomy extending beyond individual-level harms to capture systemic threats, (2) a stakeholder-adaptive Incident Severity Score (ISS) that incorporates diverse perspectives and context-dependent risk factors, and (3) a phased implementation strategy that acknowledges the complex institutional changes required for effective AI governance.
- Abstract(参考訳): 人工知能システムがますます強力で普及するにつれて、民主主義社会はこれらの技術を管理する上で前例のない課題に直面し、中核的な民主的価値観や制度を維持している。
本稿では,AIが民主社会にもたらすリスクの全スペクトラムに対処するための包括的枠組みを提案する。
提案手法は,リスク評価と制度適応のための新たなメカニズムを導入しつつ,マルチステークホルダー参加,市民社会参加,既存の国際ガバナンスの枠組みを統合する。
本研究では,(1)システム的脅威を捉えるための個人レベルの危害を超えた7段階の民主的リスク分類,(2)多様な視点と状況に依存したリスク要因を取り入れた利害関係者適応型インシデント重症度スコア(ISS),(3)効果的なAIガバナンスに必要な複雑な制度的変化を認識する段階的な実装戦略を提案する。
関連論文リスト
- AI, Digital Platforms, and the New Systemic Risk [2.0090452213078445]
我々は、AI、プラットフォーム、ハイブリッドシステムガバナンスにおけるシステムリスクを理解するための厳格なフレームワークを開発する。
我々は、EUのAI法やデジタルサービス法を含む最近の法律は、体系的なリスクを呼び起こすが、狭小または曖昧な特徴に依存していると主張している。
我々のフレームワークは、複数のAIエージェントの相互作用に起因するシステム障害の可能性を含む、新しいリスクパスを強調している。
論文 参考訳(メタデータ) (2025-09-22T15:14:23Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - When Autonomy Goes Rogue: Preparing for Risks of Multi-Agent Collusion in Social Systems [78.04679174291329]
悪意のあるマルチエージェントシステム(MAS)のリスクをシミュレートするための概念実証手法を提案する。
この枠組みを、誤情報拡散とeコマース詐欺という2つのリスクの高い分野に適用する。
その結果,分散システムの方が,集中型システムよりも悪意ある行動を実行するのに効果的であることが示唆された。
論文 参考訳(メタデータ) (2025-07-19T15:17:30Z) - Aligning Trustworthy AI with Democracy: A Dual Taxonomy of Opportunities and Risks [26.916552909766118]
本稿では、AIと民主主義の複雑な関係を評価するための二重分類法を提案する。
AIRD分類法は、AIが自律性、公正性、信頼といった中核的な民主主義の原則を台無しにする方法を特定する。
AIPD分類は、透明性、参加、効率、エビデンスに基づく政策決定を強化するAIの可能性を強調している。
論文 参考訳(メタデータ) (2025-05-19T10:51:08Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Democratizing AI Governance: Balancing Expertise and Public Participation [1.0878040851638]
人工知能(AI)システムの開発と展開は、その大きな社会的影響とともに、ガバナンスにとって重要な課題を提起している。
本稿では、専門家主導による監視と民主的参加の緊張関係を考察し、参加型と熟考型民主主義のモデルを分析する。
これらのアプローチを欧州連合に合わせたバランスの取れたガバナンスモデルに統合するための勧告が提供されている。
論文 参考訳(メタデータ) (2025-01-16T17:47:33Z) - Decentralized Governance of Autonomous AI Agents [0.0]
ETHOSは、ブロックチェーン、スマートコントラクト、分散自律組織(DAO)など、Web3テクノロジを活用する分散ガバナンス(DeGov)モデルである。
AIエージェントのグローバルレジストリを確立し、動的リスク分類、比例監視、自動コンプライアンス監視を可能にする。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
論文 参考訳(メタデータ) (2024-12-22T18:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。