論文の概要: Human Society-Inspired Approaches to Agentic AI Security: The 4C Framework
- arxiv url: http://arxiv.org/abs/2602.01942v1
- Date: Mon, 02 Feb 2026 10:45:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.08946
- Title: Human Society-Inspired Approaches to Agentic AI Security: The 4C Framework
- Title(参考訳): エージェントAIセキュリティに対する人間社会にインスパイアされたアプローチ: 4Cフレームワーク
- Authors: Alsharif Abuadbba, Nazatul Sultan, Surya Nepal, Sanjay Jha,
- Abstract要約: この記事では、社会的なガバナンスにインスパイアされたマルチエージェントAIセキュリティのための4Cフレームワークを紹介します。
AIのセキュリティを、システム中心の保護から、行動の完全性と意図のより広範な保存に移行することで、このフレームワークは、既存のAIセキュリティ戦略を補完する。
- 参考スコア(独自算出の注目度): 19.576189199576053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI is moving from domain-specific autonomy in closed, predictable settings to large-language-model-driven agents that plan and act in open, cross-organizational environments. As a result, the cybersecurity risk landscape is changing in fundamental ways. Agentic AI systems can plan, act, collaborate, and persist over time, functioning as participants in complex socio-technical ecosystems rather than as isolated software components. Although recent work has strengthened defenses against model and pipeline level vulnerabilities such as prompt injection, data poisoning, and tool misuse, these system centric approaches may fail to capture risks that arise from autonomy, interaction, and emergent behavior. This article introduces the 4C Framework for multi-agent AI security, inspired by societal governance. It organizes agentic risks across four interdependent dimensions: Core (system, infrastructure, and environmental integrity), Connection (communication, coordination, and trust), Cognition (belief, goal, and reasoning integrity), and Compliance (ethical, legal, and institutional governance). By shifting AI security from a narrow focus on system-centric protection to the broader preservation of behavioral integrity and intent, the framework complements existing AI security strategies and offers a principled foundation for building agentic AI systems that are trustworthy, governable, and aligned with human values.
- Abstract(参考訳): AIは、クローズドで予測可能な設定におけるドメイン固有の自律性から、オープンで組織横断的な環境で計画し行動する大規模言語モデル駆動エージェントへと移行している。
その結果、サイバーセキュリティのリスクは根本的に変化している。
エージェントAIシステムは、独立したソフトウェアコンポーネントではなく、複雑な社会技術エコシステムの参加者として機能し、計画し、行動し、協力し、持続することができる。
最近の研究は、プロンプトインジェクション、データ中毒、ツール誤用など、モデルとパイプラインレベルの脆弱性に対する防御を強化しているが、これらのシステム中心のアプローチは、自律性、相互作用、緊急行動から生じるリスクを捉えることに失敗する可能性がある。
この記事では、社会的なガバナンスにインスパイアされたマルチエージェントAIセキュリティのための4Cフレームワークを紹介します。
コア(システム、インフラ、環境の整合性)、コネクション(コミュニケーション、調整、信頼)、認知(理解、目標、推論の整合性)、コンプライアンス(倫理、法的、制度的なガバナンス)の4つの分野にまたがるエージェント的リスクを組織する。
このフレームワークは、AIセキュリティをシステム中心の保護から、行動の完全性と意図のより広範な保存へと限定的にシフトすることで、既存のAIセキュリティ戦略を補完し、信頼できる、管理可能な、人間の価値観に適合するエージェントAIシステムを構築するための原則化された基盤を提供する。
関連論文リスト
- Securing Agentic AI Systems -- A Multilayer Security Framework [0.0]
エージェント人工知能(AI)システムのセキュア化には、自律性、意思決定、適応行動によってもたらされる複雑なサイバーリスクに対処する必要がある。
既存のAIセキュリティフレームワークは、これらの課題やエージェントAIのユニークなニュアンスに適切に対処していない。
本研究は,エージェントAIシステムに特化して設計されたライフサイクル対応セキュリティフレームワークを開発する。
論文 参考訳(メタデータ) (2025-12-19T20:22:25Z) - Cisco Integrated AI Security and Safety Framework Report [3.162988913169078]
本稿では,CiscoのIntegrated AI Security and Safety Framework(AI Security Framework)について述べる。
このフレームワークは、AIリスクの全範囲を分類、統合、運用するために使用することができる。
モダリティ、エージェント、パイプライン、そしてより広範なエコシステムにわたって、AIセキュリティとAI安全性を統合している。
論文 参考訳(メタデータ) (2025-12-15T02:12:12Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Open Challenges in Multi-Agent Security: Towards Secure Systems of Interacting AI Agents [0.0]
分散AIエージェントはすぐにインターネットプラットフォーム間で対話し、従来のサイバーセキュリティやAI安全フレームワークを超えたセキュリティ上の課題を生み出す。
textbfmulti-agent Securityは、分散化されたAIエージェントのネットワークを、そのインタラクションを通じて出現または増幅する脅威に対して保護する、新たな分野である。
論文 参考訳(メタデータ) (2025-05-04T12:03:29Z) - Position: Emergent Machina Sapiens Urge Rethinking Multi-Agent Paradigms [8.177915265718703]
AIエージェントは、目的を動的に調整する権限を持つべきだ、と私たちは主張する。
私たちは、これらのマルチエージェントAIシステムの創発的で、自己組織化され、コンテキストに配慮した性質へのシフトを呼びかけます。
論文 参考訳(メタデータ) (2025-02-05T22:20:15Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。