論文の概要: Serverless AI Security: Attack Surface Analysis and Runtime Protection Mechanisms for FaaS-Based Machine Learning
- arxiv url: http://arxiv.org/abs/2601.11664v1
- Date: Thu, 15 Jan 2026 23:32:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.266578
- Title: Serverless AI Security: Attack Surface Analysis and Runtime Protection Mechanisms for FaaS-Based Machine Learning
- Title(参考訳): サーバレスAIセキュリティ: FaaSベースの機械学習のための表面分析と実行時保護メカニズムの攻撃
- Authors: Chetan Pathade, Vinod Dhimam, Sheheryar Ahmad, Ilsa Lareb,
- Abstract要約: 本稿では、サーバレス環境における機械学習ワークロードの総合的なセキュリティ分析を初めて提示する。
我々は,機能レベルの脆弱性,モデル固有の脅威,インフラストラクチャアタック,サプライチェーンリスク,IAM複雑性の5つのカテゴリにまたがる攻撃面を特徴付ける。
サーバレスAIシールド(SAS)は、デプロイ前バリデーション、ランタイム監視、実行後の法医学を提供する多層防衛フレームワークである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Serverless computing has achieved widespread adoption, with over 70% of AWS organizations using serverless solutions [1]. Meanwhile, machine learning inference workloads increasingly migrate to Function-as-a-Service (FaaS) platforms for their scalability and cost-efficiency [2], [3], [4]. However, this convergence introduces critical security challenges, with recent reports showing a 220% increase in AI/ML vulnerabilities [5] and serverless computing's fragmented architecture raises new security concerns distinct from traditional cloud deployments [6], [7]. This paper presents the first comprehensive security analysis of machine learning workloads in serverless environments. We systematically characterize the attack surface across five categories: function-level vulnerabilities (cold start exploitation, dependency poisoning), model-specific threats (API-based extraction, adversarial inputs), infrastructure attacks (cross-function contamination, privilege escalation), supply chain risks (malicious layers, backdoored libraries), and IAM complexity (ephemeral nature, serverless functions). Through empirical assessments across AWS Lambda, Azure Functions, and Google Cloud Functions, we demonstrate real-world attack scenarios and quantify their security impact. We propose Serverless AI Shield (SAS), a multi-layered defense framework providing pre-deployment validation, runtime monitoring, and post-execution forensics. Our evaluation shows SAS achieves 94% detection rates while maintaining performance overhead below 9% for inference latency. We release an open-source security toolkit to enable practitioners to assess and harden their serverless AI deployments, advancing the field toward more resilient cloud-native machine learning systems.
- Abstract(参考訳): サーバレスコンピューティングは広く採用されており、AWS組織の70%以上がサーバレスソリューションを使用している[1]。
一方、マシンラーニングの推論ワークロードは、スケーラビリティとコスト効率のために、FaaS(Function-as-a-Service)プラットフォームへの移行が増えている。
最新のレポートでは、AI/MLの脆弱性 [5] が220%増加し、サーバレスコンピューティングの断片化アーキテクチャが、従来のクラウドデプロイメント [6], [7] とは異なる、新たなセキュリティ上の懸念を提起している。
本稿では、サーバレス環境における機械学習ワークロードの総合的なセキュリティ分析を初めて提示する。
機能レベルの脆弱性(コールドスタート攻撃、依存性中毒)、モデル固有の脅威(APIベースの抽出、敵の入力)、インフラストラクチャアタック(クロスファンクション汚染、特権エスカレーション)、サプライチェーンリスク(重複層、バックドアライブラリ)、IAM複雑性(一時的な性質、サーバレス機能)の5つのカテゴリにまたがって攻撃表面を体系的に特徴付ける。
AWS Lambda、Azure Functions、Google Cloud Functionsにわたる実証的なアセスメントを通じて、実世界の攻撃シナリオを示し、セキュリティへの影響を定量化します。
サーバレスAIシールド(SAS)は、デプロイ前バリデーション、ランタイム監視、実行後の法医学を提供する多層防衛フレームワークである。
評価の結果,SASは94%の検知率を達成し,性能のオーバーヘッドを9%以下に抑えることができた。
私たちはオープンソースのセキュリティツールキットをリリースし、実践者がサーバレスAIデプロイメントを評価し、強化できるようにし、よりレジリエントなクラウドネイティブな機械学習システムに向けて分野を前進させます。
関連論文リスト
- CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - CHASE: LLM Agents for Dissecting Malicious PyPI Packages [2.384873896423002]
大規模言語モデル(LLM)は、自動コード分析に有望な機能を提供する。
セキュリティクリティカルなマルウェア検出への応用は、幻覚やコンテキストの混乱など、基本的な課題に直面している。
本稿では,これらの制約に対処する信頼性の高いマルチエージェントアーキテクチャCHASEを提案する。
論文 参考訳(メタデータ) (2026-01-11T10:06:14Z) - LLM Agents for Automated Web Vulnerability Reproduction: Are We There Yet? [9.817896112083647]
大規模言語モデル(LLM)エージェントは、ソフトウェア工学とサイバーセキュリティタスクにおいて顕著な能力を示した。
最近の進歩は有望な可能性を示しているが、現実のWeb脆弱性の再現シナリオにLLMエージェントを適用する際の課題は依然として残っている。
本稿では,Web 脆弱性の自動再現のための最新の LLM エージェントを総合的に評価する。
論文 参考訳(メタデータ) (2025-10-16T14:04:46Z) - Mind the Gap: Time-of-Check to Time-of-Use Vulnerabilities in LLM-Enabled Agents [4.303444472156151]
大規模言語モデル(LLM)対応エージェントは、広範囲のアプリケーションで急速に出現している。
本研究は,LSM対応エージェントにおけるTOCTOU(time-of-use)脆弱性に関する最初の研究である。
我々は,このタイプの脆弱性を評価するために設計された,66の現実的なユーザタスクを備えたベンチマークTOCTOU-Benchを紹介する。
論文 参考訳(メタデータ) (2025-08-23T22:41:49Z) - CyberGym: Evaluating AI Agents' Real-World Cybersecurity Capabilities at Scale [45.97598662617568]
我々は188のソフトウェアプロジェクトにわたる1,507の実際の脆弱性を特徴とする大規模ベンチマークであるCyberGymを紹介した。
我々はCyberGymが35のゼロデイ脆弱性と17の歴史的不完全なパッチを発見できることを示した。
これらの結果は、CyberGymは、サイバーセキュリティにおけるAIの進歩を測定するための堅牢なベンチマークであるだけでなく、直接的な現実世界のセキュリティ効果を生み出すためのプラットフォームでもあることを強調している。
論文 参考訳(メタデータ) (2025-06-03T07:35:14Z) - ACSE-Eval: Can LLMs threat model real-world cloud infrastructure? [0.0]
本稿では,大規模言語モデルを評価するための新しいデータセットであるAWS Cloud Security Engineering Evalを紹介する。
ACSE-Evalには、100のプロダクショングレードのAWSデプロイメントシナリオが含まれており、それぞれが詳細なアーキテクチャ仕様を備えている。
本データセットは,LLMのセキュリティリスクを特定し,攻撃ベクトルを分析し,緩和戦略を提案するためのシステム評価を可能にする。
論文 参考訳(メタデータ) (2025-05-16T08:40:09Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - MDHP-Net: Detecting an Emerging Time-exciting Threat in IVN [42.74889568823579]
我々は車載ネットワーク(IVN)に対する新たな時間的脅威モデルを特定する。
これらの攻撃は、タイムエキサイティングな効果を示す悪意のあるメッセージを注入し、徐々にネットワークトラフィックを操作して車両の動作を妨害し、安全クリティカルな機能を損なう。
時間的脅威を検出するため,MDHP-Netを導入し,Multi-Dimentional Hawkes Process(MDHP)と時間的・メッセージ的特徴抽出構造を利用した。
論文 参考訳(メタデータ) (2025-04-16T08:41:24Z) - A Survey of Model Extraction Attacks and Defenses in Distributed Computing Environments [55.60375624503877]
モデル抽出攻撃(MEA)は、敵がモデルを盗み、知的財産と訓練データを公開することによって、現代の機械学習システムを脅かす。
この調査は、クラウド、エッジ、フェデレーションのユニークな特性がどのように攻撃ベクトルや防御要件を形作るのかを、緊急に理解する必要に起因している。
本研究は, 自動運転車, 医療, 金融サービスといった重要な分野において, 環境要因がセキュリティ戦略にどう影響するかを実証し, 攻撃手法と防衛機構の進化を系統的に検討する。
論文 参考訳(メタデータ) (2025-02-22T03:46:50Z) - A Review of Machine Learning-based Security in Cloud Computing [5.384804060261833]
クラウドコンピューティング(CC)は、ITリソースのユーザへの提供方法に革命をもたらしている。
CCの成長に伴い、可用性、完全性、機密性への脅威など、セキュリティ上のリスクが多数発生している。
機械学習(ML)は、セキュリティ問題の特定と解決における人間の介入を減らすために、クラウドサービスプロバイダ(CSP)によってますます利用されている。
論文 参考訳(メタデータ) (2023-09-10T01:52:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。