論文の概要: Categorical Framework for Quantum-Resistant Zero-Trust AI Security
- arxiv url: http://arxiv.org/abs/2511.21768v1
- Date: Tue, 25 Nov 2025 17:17:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.226097
- Title: Categorical Framework for Quantum-Resistant Zero-Trust AI Security
- Title(参考訳): 量子耐性ゼロトラストAIセキュリティのためのカテゴリ的フレームワーク
- Authors: I. Cherkaoui, C. Clarke, J. Horgan, I. Dey,
- Abstract要約: 我々は、セキュアなAIモデルのために、ポスト量子暗号(PQC)とゼロ信頼アーキテクチャ(AZT)の新たな統合を提案する。
我々のフレームワークは、暗号アクセスを射として、信頼ポリシーを関手として、一意にモデル化する。
具体的ESP32実装による実効性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid deployment of AI models necessitates robust, quantum-resistant security, particularly against adversarial threats. Here, we present a novel integration of post-quantum cryptography (PQC) and zero trust architecture (ZTA), formally grounded in category theory, to secure AI model access. Our framework uniquely models cryptographic workflows as morphisms and trust policies as functors, enabling fine-grained, adaptive trust and micro-segmentation for lattice-based PQC primitives. This approach offers enhanced protection against adversarial AI threats. We demonstrate its efficacy through a concrete ESP32-based implementation, validating a crypto-agile transition with quantifiable performance and security improvements, underpinned by categorical proofs for AI security. The implementation achieves significant memory efficiency on ESP32, with the agent utilizing 91.86% and the broker 97.88% of free heap after cryptographic operations, and successfully rejects 100% of unauthorized access attempts with sub-millisecond average latency.
- Abstract(参考訳): AIモデルの迅速な展開は、堅牢で量子耐性のあるセキュリティ、特に敵の脅威に対して必要である。
本稿では,AIモデルアクセスを確保するために,量子後暗号(PQC)とゼロ信頼アーキテクチャ(ZTA)の新たな統合を提案する。
我々のフレームワークは、暗号ワークフローを射として、信頼ポリシーを関手としてモデル化し、格子ベースのPQCプリミティブに対して微粒で適応的な信頼とマイクロセグメンテーションを可能にする。
このアプローチは、敵AI脅威に対する保護を強化します。
具体的なESP32ベースの実装を通じて、その有効性を実証し、定量的なパフォーマンスとセキュリティの改善による暗号アジャイル移行を検証し、AIセキュリティのカテゴリ的証明を基盤とする。
この実装はESP32上で大きなメモリ効率を実現し、エージェントは91.86%、ブローカーは97.88%のフリーヒープを暗号処理後に利用し、100ミリ秒以下の平均遅延で不正アクセスを100%拒否することに成功した。
関連論文リスト
- A Call to Action for a Secure-by-Design Generative AI Paradigm [0.0]
大規模言語モデル(LLM)は、インジェクションや他の敵攻撃に対して脆弱である。
本稿では,決定論的かつセキュアな対話を実現するフレームワークであるPromptShieldを紹介する。
その結果,モデルの安全性と性能が向上し,精度,リコール,F1スコアが約94%向上した。
論文 参考訳(メタデータ) (2025-10-01T03:05:07Z) - Towards Secure and Explainable Smart Contract Generation with Security-Aware Group Relative Policy Optimization [18.013438474903314]
本稿では,スマートコントラクト生成をセキュアかつ説明可能なフレームワークであるSmartCoder-R1を提案する。
我々は、人間のセキュリティ分析をエミュレートするためにモデルを訓練する。
SmartCoder-R1は、テクニックの新たな状態を確立し、5つの主要なメトリクスで最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-09-12T03:14:50Z) - The Aegis Protocol: A Foundational Security Framework for Autonomous AI Agents [0.0]
自律型AIエージェントの普及は、複雑で創発的なマルチエージェントシステムへのパラダイムシフトを表している。
本稿では,オープンエージェントエコシステムに強力なセキュリティ保証を提供するために設計された階層型セキュリティフレームワークであるAegis Protocolを紹介する。
論文 参考訳(メタデータ) (2025-08-22T06:18:57Z) - Secure mmWave Beamforming with Proactive-ISAC Defense Against Beam-Stealing Attacks [6.81194385663614]
ミリ波通信システム(mmWave)は、高度なビームステアリング攻撃に対する感受性が増大している。
本稿では,高度深層強化学習(DRL)エージェントを有効かつ適応的な防御に利用した新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-04T19:30:09Z) - Secure Tug-of-War (SecTOW): Iterative Defense-Attack Training with Reinforcement Learning for Multimodal Model Security [63.41350337821108]
マルチモーダル大規模言語モデル(MLLM)のセキュリティを高めるために,Secure Tug-of-War(SecTOW)を提案する。
SecTOWは2つのモジュールで構成される:ディフェンダーと補助攻撃者。どちらも強化学習(GRPO)を使用して反復的に訓練される。
SecTOWは、一般的な性能を維持しながら、セキュリティを大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-07-29T17:39:48Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - Secured Communication Schemes for UAVs in 5G: CRYSTALS-Kyber and IDS [16.52849506266782]
本稿では,無人航空機(UAV)と地上局の5Gネットワークにおけるセキュアな通信アーキテクチャを提案する。
提案手法は、鍵カプセル化のためにAdvanced Encryption Standard(AES)とElliptic Curve Cryptography(ECC)とCRYSTALS-Kyberを統合する。
アーキテクチャはサーバクライアントモデルに基づいており、UAVはクライアントとして機能し、地上局はサーバとして機能する。
論文 参考訳(メタデータ) (2025-01-31T15:00:27Z) - MF-CLIP: Leveraging CLIP as Surrogate Models for No-box Adversarial Attacks [65.86360607693457]
敵に事前の知識がないノンボックス攻撃は、実際的な関連性にもかかわらず、比較的過小評価されている。
本研究は,大規模ビジョン・ランゲージ・モデル(VLM)をノンボックス・アタックの実行のための代理モデルとして活用するための体系的な研究である。
理論的および実証的な分析により,バニラCLIPを直接サロゲートモデルとして適用するための識別能力の不足に起因するno-boxアタックの実行に重要な制限があることが判明した。
MF-CLIP(MF-CLIP: MF-CLIP)はCLIPのサロゲートモデルとしての有効性を高める新しいフレームワークである。
論文 参考訳(メタデータ) (2023-07-13T08:10:48Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。