論文の概要: Dial E for Ethical Enforcement: institutional VETO power as a governance primitive
- arxiv url: http://arxiv.org/abs/2603.00617v1
- Date: Sat, 28 Feb 2026 12:18:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.293618
- Title: Dial E for Ethical Enforcement: institutional VETO power as a governance primitive
- Title(参考訳): 倫理的執行のためのダイヤルE:ガバナンスプリミティブとしての制度VETO権力
- Authors: Subramanyam Sahoo, Vinija Jain, Aman Chadha, Divya Chaudhary,
- Abstract要約: この論文は、軍事利用に最も脆弱なコミュニティはガバナンス設計を導く必要があると主張している。
機関の拒否権は、象徴的な保護を強制的な責任に変換するための前提条件であると主張している。
- 参考スコア(独自算出の注目度): 16.505918019260964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The persistent militarization of large reasoning models stems not from technical necessity but from governance arrangements that strip researchers of meaningful authority to refuse harmful transfers and deployments. Existing accountability mechanisms such as model cards and responsible AI statements operate as reputational signals detached from decision making architecture. We identify institutional veto power as a missing governance primitive: a formal authority to halt subsequent use or distribution of research when credible risks of weaponization emerge. Drawing on precedents in nuclear nonproliferation and biomedical ethics, the paper maps unprotected veto points across the research lifecycle, diagnose why compliance without enforceable constraints fails, and offer concrete institutional designs that embed veto authority while reducing the risk of political capture. The paper argues that communities most vulnerable to military uses must lead governance design, and that institutional veto power is a prerequisite for converting symbolic safeguards into enforceable responsibility and for achieving meaningful model disarmament.
- Abstract(参考訳): 大きな推論モデルの永続的な軍事化は、技術的な必要性ではなく、有害な移動や展開を拒否する有意義な権威を持つ研究者を排除したガバナンスの取り決めに由来する。
モデルカードや責任あるAIステートメントといった既存の説明責任メカニズムは、意思決定アーキテクチャから分離された評判信号として機能する。
我々は、機関の拒否権は、武器化の信頼性の高いリスクが出現すると、その後の使用や研究の配布を停止する正式な権限である、不足するガバナンスプリミティブとして特定する。
核拡散防止と生物医学的倫理の先例に基づき、この論文は、研究ライフサイクル全体にわたって保護されていない獣医学点をマッピングし、強制的な制約なしにコンプライアンスが失敗する理由を診断し、政治的拘束のリスクを低減しつつ、獣医学の権威を組み込んだ具体的な制度設計を提供する。
この論文は、軍事利用に最も脆弱なコミュニティは統治設計を導く必要があり、制度的な拒否権は、象徴的な安全を強制可能な責任に転換し、意味のあるモデル武装解除を達成するための前提条件であると主張している。
関連論文リスト
- Administrative Law's Fourth Settlement: AI and the Capability-Accountability Trap [0.0]
1887年以降、行政法は「能力と責任の罠」をナビゲートしてきた。
本条では,この可能性を実現するために行政法における教義改革を3つ提案する。
論文 参考訳(メタデータ) (2026-02-10T11:36:01Z) - Mirror: A Multi-Agent System for AI-Assisted Ethics Review [104.3684024153469]
MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
論文 参考訳(メタデータ) (2026-02-09T03:38:55Z) - Democracy-in-Silico: Institutional Design as Alignment in AI-Governed Polities [2.1485350418225244]
デモクラシー・イン・シリコ(Democracy-in-Silico)は、先進的なAIエージェントの社会が異なる制度の枠組みの下で自らを統治するエージェントベースのシミュレーションである。
我々は、大規模言語モデル(LLM)を課題とし、外傷性記憶、隠れた議題、心理的トリガーを持つエージェントを具現化することによって、AI時代の人間であることの意味を探求する。
我々は、エージェントが公共福祉よりも自らの権限を優先する不整合行動の定量化を目的として、新しい指標であるPPI(Power-Preservation Index)を提案する。
論文 参考訳(メタデータ) (2025-08-27T04:44:41Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - A Moral Agency Framework for Legitimate Integration of AI in Bureaucracies [0.0]
公務員官僚は人工知能(AI)の恩恵を享受しようとする
本稿では,官僚構造におけるAIの合法的な統合のための3点のモラルエージェンシー・フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-11T17:49:19Z) - Toward a Global Regime for Compute Governance: Building the Pause Button [0.4952055253916912]
計算資源へのアクセスを制限することにより,AIシステムのトレーニングを防止するためのガバナンスシステムを提案する。
技術的、トレーサビリティ、規制という3つの重要な介入ポイントを特定し、それらをガバナンス-執行-検証フレームワークにまとめます。
技術的メカニズムとしては、改ざん防止FLOPキャップ、モデルロック、オフラインライセンスなどがある。
論文 参考訳(メタデータ) (2025-06-25T15:18:19Z) - Toward a Theory of Agents as Tool-Use Decision-Makers [89.26889709510242]
真の自律性は、エージェントが、彼らが知っていること、必要なこと、そしてその知識を効率的に獲得する方法を統治する、一貫性のある疫学の枠組みに根ざす必要がある、と我々は主張する。
本研究では,内的推論と外的行動を等価な疫学ツールとして扱う統一理論を提案し,エージェントが内観と相互作用を体系的に調整することを可能にする。
この視点は、エージェントの設計を単なるアクションエグゼクタから知識駆動インテリジェンスシステムにシフトさせ、適応的で効率的でゴール指向の行動が可能な基礎エージェントを構築するための原則化された道筋を提供する。
論文 参考訳(メタデータ) (2025-06-01T07:52:16Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Reinsuring AI: Energy, Agriculture, Finance & Medicine as Precedents for Scalable Governance of Frontier Artificial Intelligence [0.0]
本稿では,3階層の保険アーキテクチャを通じて,このようなハイテイクモデルを管理するための新しい枠組みを提案する。
連邦政府が、脆弱な規制や予測ライセンス制度に頼ることなく、民間のAI保険市場を安定させる方法を示している。
論文 参考訳(メタデータ) (2025-04-02T21:02:19Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - AGI, Governments, and Free Societies [0.0]
我々は、AGIが社会を「専制的レヴィアサン」または「従属レヴィアサン」に向かわせるという明確なリスクを生んでいると論じる。
これらのダイナミクスが3つの重要なチャネルを通してどのように展開できるかを分析します。
AGIによる国家の能力増強は、前例のない監視と統制を可能にし、権威主義的な慣行を定着させる可能性がある。
逆に、非国家アクターへのAGI機能の急速な拡散は、国家の正当性と統治性を損なう可能性がある。
論文 参考訳(メタデータ) (2025-02-14T03:55:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。