論文の概要: The coordination gap in frontier AI safety policies
- arxiv url: http://arxiv.org/abs/2603.10015v1
- Date: Sat, 21 Feb 2026 00:26:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.568162
- Title: The coordination gap in frontier AI safety policies
- Title(参考訳): 最前線のAI安全政策における調整のギャップ
- Authors: Isaak Mengesha,
- Abstract要約: 我々は、フロンティアAI安全政策が予防に重点を置いている一方で、予防が失敗した場合に応答を調整するための機関能力を無視していると論じる。
我々は、同様のメカニズム -- コミット前、共有プロトコル、待機調整場所 -- が、フロンティアAIガバナンスに適応できることを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Frontier AI Safety Policies concentrate on prevention -- capability evaluations, deployment gates, and usage constraints -- while neglecting institutional capacity to coordinate responses when prevention fails. We argue that this coordination gap is structural: investments in ecosystem robustness yield diffuse benefits but concentrated costs, generating systematic underinvestment. Drawing on risk regimes in nuclear safety, pandemic preparedness, and critical infrastructure, we propose that similar mechanisms -- precommitment, shared protocols, and standing coordination venues -- could be adapted to frontier AI governance. Without such architecture, institutions cannot learn from failures at the pace of relevance.
- Abstract(参考訳): Frontier AI Safety Policiesは、予防 -- 能力評価、デプロイメントゲート、使用制限 -- に重点を置いている。
この調整のギャップは構造的であり、生態系の堅牢性への投資は拡散利益をもたらすが、集中的なコストをもたらし、体系的な過小投資を生み出す。
原子力安全、パンデミックの準備、そして重要なインフラのリスク体制に基づいて、私たちは、同様のメカニズム -- プレミッション、共有プロトコル、およびスタンドア・コーディネーションの場所 -- が、フロンティアAIガバナンスに適応可能であることを提案します。
このようなアーキテクチャがなければ、組織は関連性のペースで失敗から学ぶことはできない。
関連論文リスト
- Toward a Sustainable Federated Learning Ecosystem: A Practical Least Core Mechanism for Payoff Allocation [71.86087908416255]
最小コア(LC)概念に基づく配当フレームワークを提案する。
従来の方法とは異なり、LCは最大の不満を最小限に抑えてフェデレーションの凝集を優先する。
統合侵入検知におけるケーススタディは、我々のメカニズムが重要な貢献者や戦略的提携を正しく識別できることを実証している。
論文 参考訳(メタデータ) (2026-02-03T11:10:50Z) - Human Society-Inspired Approaches to Agentic AI Security: The 4C Framework [19.576189199576053]
この記事では、社会的なガバナンスにインスパイアされたマルチエージェントAIセキュリティのための4Cフレームワークを紹介します。
AIのセキュリティを、システム中心の保護から、行動の完全性と意図のより広範な保存に移行することで、このフレームワークは、既存のAIセキュリティ戦略を補完する。
論文 参考訳(メタデータ) (2026-02-02T10:45:16Z) - PoSafeNet: Safe Learning with Poset-Structured Neural Nets [49.854863600271614]
既存のアプローチは、しばしば複数の安全制約を均一に、または固定された優先命令によって強制し、実現不可能と不安定な振る舞いを引き起こす。
我々は、この設定を擬似構造的安全性として定式化し、安全制約を部分的に順序づけられた集合としてモデル化し、安全構成を政策クラスの構造的特性として扱う。
この定式化に基づいて、逐次クローズドフォームプロジェクションを介して安全性を強制する、識別可能な神経安全層であるPoSafeNetを提案する。
論文 参考訳(メタデータ) (2026-01-29T22:03:32Z) - From Linear Risk to Emergent Harm: Complexity as the Missing Core of AI Governance [0.0]
リスクベースのAI規制は、予想される損害に対応する比例制御を約束する。
本稿では、そのようなフレームワークは構造上の理由から失敗することが多いと論じる。
我々は,規制を制御ではなく介入として扱う,AIガバナンスのための複雑性ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-14T14:19:21Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Technical Requirements for Halting Dangerous AI Activities [1.8434042562191815]
政府は、危険なAI開発と展開を協調的に停止する能力を積極的に確立することができる。
我々は、危険なAI活動の協調的な停止を可能にする重要な技術的介入について概説する。
論文 参考訳(メタデータ) (2025-07-13T21:32:15Z) - Toward a Global Regime for Compute Governance: Building the Pause Button [0.4952055253916912]
計算資源へのアクセスを制限することにより,AIシステムのトレーニングを防止するためのガバナンスシステムを提案する。
技術的、トレーサビリティ、規制という3つの重要な介入ポイントを特定し、それらをガバナンス-執行-検証フレームワークにまとめます。
技術的メカニズムとしては、改ざん防止FLOPキャップ、モデルロック、オフラインライセンスなどがある。
論文 参考訳(メタデータ) (2025-06-25T15:18:19Z) - Cooperative AI via Decentralized Commitment Devices [0.8796370521782165]
信頼できるコミットメントデバイスは、堅牢なマルチエージェント調整のための一般的なアプローチである。
私たちが研究している協調AI技術が現実世界のインセンティブやアタックベクターに対して堅牢かどうかは不明だ。
論文 参考訳(メタデータ) (2023-11-14T00:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。