論文の概要: Resilience Meets Autonomy: Governing Embodied AI in Critical Infrastructure
- arxiv url: http://arxiv.org/abs/2603.15885v1
- Date: Mon, 16 Mar 2026 20:28:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.974835
- Title: Resilience Meets Autonomy: Governing Embodied AI in Critical Infrastructure
- Title(参考訳): レジリエンスと自律性 - クリティカルインフラストラクチャにおけるエンボディードAIの排除
- Authors: Puneet Sharma, Christer Henrik Pursiainen,
- Abstract要約: クリティカルインフラストラクチャは、監視、予測メンテナンス、意思決定サポートのための組み込みAIをますます取り入れている。
しかし、統計的に表現可能な不確実性を扱うように設計されたAIシステムは、カスケード障害と危機ダイナミクスを扱う。
本稿では、Embodied AIのレジリエンスは、ハイブリッドガバナンスアーキテクチャにおける境界付き自律性に依存している、と論じる。
- 参考スコア(独自算出の注目度): 0.9402398587785238
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Critical infrastructure increasingly incorporates embodied AI for monitoring, predictive maintenance, and decision support. However, AI systems designed to handle statistically representable uncertainty struggle with cascading failures and crisis dynamics that exceed their training assumptions. This paper argues that Embodied AIs resilience depends on bounded autonomy within a hybrid governance architecture. We outline four oversight modes and map them to critical infrastructure sectors based on task complexity, risk level, and consequence severity. Drawing on the EU AI Act, ISO safety standards, and crisis management research, we argue that effective governance requires a structured allocation of machine capability and human judgement.
- Abstract(参考訳): クリティカルインフラストラクチャは、監視、予測メンテナンス、意思決定サポートのための組み込みAIをますます取り入れている。
しかし、統計的に表現可能な不確実性を扱うように設計されたAIシステムは、カスケード障害や、トレーニングの前提を超える危機ダイナミクスに対処する。
本稿では、Embodied AIのレジリエンスは、ハイブリッドガバナンスアーキテクチャにおける境界付き自律性に依存している、と論じる。
4つの監視モードを概説し、タスクの複雑さ、リスクレベル、結果の重大さに基づいて、それらを重要なインフラストラクチャセクターにマップします。
EUのAI法、ISOの安全基準、危機管理の研究に基づいて、効率的なガバナンスには機械能力と人間の判断の構造化された割り当てが必要であると主張している。
関連論文リスト
- Sovereign Agents: Towards Infrastructural Sovereignty and Diffused Accountability in Decentralized AI [1.5755923640031846]
本稿では,暗号的自己カストディ,分散実行環境,およびプロトコルによる連続性足場エージェント主権の理解のための分析レンズとしてのインフラ主権を提案する。
このようなシステムの主権は、インフラの硬さによって決定されるスペクトル上に存在し、基盤となる技術システムが介入や崩壊に抵抗する程度である。
論文 参考訳(メタデータ) (2026-02-16T17:30:17Z) - Trustworthy Orchestration Artificial Intelligence by the Ten Criteria with Control-Plane Governance [1.9691447018712314]
本稿では,信頼に値するオーケストレーションAIの10基準について述べる。
人間の入力、セマンティックコヒーレンス、監査、証明の整合性を統合されたコントロール・パネルアーキテクチャに統合する。
論文 参考訳(メタデータ) (2025-12-11T05:49:26Z) - Responsible AI Adoption in the Public Sector: A Data-Centric Taxonomy of AI Adoption Challenges [0.0]
本研究では、政府におけるAI導入の責任を負うために、データ関連課題の分類法を開発する。
43の研究と21の専門的評価の体系的なレビューに基づいて、分類学は、技術的、組織的、環境的な側面において13の重要な課題を特定している。
分類学は、機関の圧力に付加され、リスクの高いAIデプロイメントの「症状」を表面化する診断ツールとして機能する。
論文 参考訳(メタデータ) (2025-09-29T18:42:09Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Web3 x AI Agents: Landscape, Integrations, and Foundational Challenges [49.69200207497795]
Web3テクノロジとAIエージェントの収束は、分散化されたエコシステムを再形成する、急速に進化するフロンティアを表している。
本稿では, ランドスケープ, 経済, ガバナンス, セキュリティ, 信頼メカニズムの5つの重要な側面について, Web3 と AI エージェントの交わりについて, 初めてかつ最も包括的な分析を行った。
論文 参考訳(メタデータ) (2025-08-04T15:44:58Z) - A Conceptual Framework for AI-based Decision Systems in Critical Infrastructures [2.272797989529731]
安全クリティカルなシステムにおける人間とAIの相互作用は、既存のフレームワークによって部分的に対処されている、ユニークな課題のセットを示します。
これらの懸念に対処しながら、人間とAIの能力を総合的に統合するフレームワークが特に必要である。
本稿では、学際的アプローチを採用することにより、批判的インフラの全体的概念的枠組みを提案する。
論文 参考訳(メタデータ) (2025-04-21T18:38:26Z) - A Framework for the Assurance of AI-Enabled Systems [0.0]
本稿では,AIシステムのリスク管理と保証のためのクレームベースのフレームワークを提案する。
論文のコントリビューションは、AI保証のためのフレームワークプロセス、関連する定義のセット、AI保証における重要な考慮事項に関する議論である。
論文 参考訳(メタデータ) (2025-04-03T13:44:01Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。