論文の概要: 3D Guard-Layer: An Integrated Agentic AI Safety System for Edge Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2511.08842v1
- Date: Thu, 13 Nov 2025 01:11:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.250494
- Title: 3D Guard-Layer: An Integrated Agentic AI Safety System for Edge Artificial Intelligence
- Title(参考訳): 3D Guard-Layer:エッジ人工知能のための統合エージェントAI安全システム
- Authors: Eren Kurshan, Yuan Xie, Paul Franzon,
- Abstract要約: エッジデバイスに直接AIを組み込むエッジ人工知能の採用は急速に増加している。
ガードレールと安全メカニズムの実装にもかかわらず、このドメインではセキュリティの脆弱性と課題がますます広まっている。
本稿では、3Dを利用して専用の安全層を統合するエージェントAI安全アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 11.998914775359191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI systems have found a wide range of real-world applications in recent years. The adoption of edge artificial intelligence, embedding AI directly into edge devices, is rapidly growing. Despite the implementation of guardrails and safety mechanisms, security vulnerabilities and challenges have become increasingly prevalent in this domain, posing a significant barrier to the practical deployment and safety of AI systems. This paper proposes an agentic AI safety architecture that leverages 3D to integrate a dedicated safety layer. It introduces an adaptive AI safety infrastructure capable of dynamically learning and mitigating attacks against the AI system. The system leverages the inherent advantages of co-location with the edge computing hardware to continuously monitor, detect and proactively mitigate threats to the AI system. The integration of local processing and learning capabilities enhances resilience against emerging network-based attacks while simultaneously improving system reliability, modularity, and performance, all with minimal cost and 3D integration overhead.
- Abstract(参考訳): 近年、AIシステムは様々な現実世界のアプリケーションを発見している。
エッジデバイスに直接AIを組み込むエッジ人工知能の採用は急速に増加している。
ガードレールと安全メカニズムの実装にもかかわらず、このドメインではセキュリティの脆弱性と課題がますます多くなり、AIシステムの実用的デプロイと安全性に対する大きな障壁となっている。
本稿では、3Dを利用して専用の安全層を統合するエージェントAI安全アーキテクチャを提案する。
AIシステムに対する攻撃を動的に学習し緩和するアダプティブAI安全インフラストラクチャを導入している。
このシステムは、エッジコンピューティングハードウェアとのコロケーションの固有の利点を活用して、AIシステムに対する脅威を継続的に監視し、検出し、積極的に軽減する。
ローカル処理と学習機能の統合により、新たなネットワークベースの攻撃に対するレジリエンスが向上すると同時に、システムの信頼性、モジュール性、パフォーマンスが向上する。
関連論文リスト
- ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - Surveying the Operational Cybersecurity and Supply Chain Threat Landscape when Developing and Deploying AI Systems [0.08594140167290097]
本稿では,AIをソフトウェアシステムに組み込む際に導入された,新たなサイバー脅威に対する認識を高める。
AIライフサイクルにおける運用上のサイバーセキュリティとサプライチェーンのリスクについて検討する。
これらのリスクを理解することによって、組織はAIシステムをよりよく保護し、信頼性とレジリエンスを確保することができる。
論文 参考訳(メタデータ) (2025-08-27T22:46:23Z) - Offensive Security for AI Systems: Concepts, Practices, and Applications [0.0]
従来の防御策は、AI駆動技術に直面するユニークで進化する脅威に対して、しばしば不足する。
本稿では、AIライフサイクル全体を通して脆弱性を明らかにするために、積極的な脅威シミュレーションと敵対的なテストを強調する。
論文 参考訳(メタデータ) (2025-05-09T18:58:56Z) - Threat Modeling for AI: The Case for an Asset-Centric Approach [0.23408308015481666]
AIシステムは、自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用することが可能になった。
AIシステムが自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用できるようになったことで、従来のセキュリティアプローチは不足する。
本稿では、脅威モデリングAIシステムのための資産中心の方法論を紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:57:08Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - SafeEmbodAI: a Safety Framework for Mobile Robots in Embodied AI Systems [5.055705635181593]
物理的世界と自律的に対話するAIロボットを含む、身体化されたAIシステムは、かなり進歩している。
不適切な安全管理は、複雑な環境で障害を引き起こし、悪意のあるコマンドインジェクションに対してシステムが脆弱になる。
我々は,移動ロボットを組込みAIシステムに統合するための安全フレームワークであるtextitSafeEmbodAIを提案する。
論文 参考訳(メタデータ) (2024-09-03T05:56:50Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。