論文の概要: Privacy and Security Implications of Cloud-Based AI Services : A Survey
- arxiv url: http://arxiv.org/abs/2402.00896v1
- Date: Wed, 31 Jan 2024 13:30:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 18:30:59.361849
- Title: Privacy and Security Implications of Cloud-Based AI Services : A Survey
- Title(参考訳): クラウドベースのAIサービスのプライバシとセキュリティへの影響 : 調査
- Authors: Alka Luqman, Riya Mahesh, Anupam Chattopadhyay
- Abstract要約: この記事では、今日のクラウドエコシステムにおけるプライバシとセキュリティの状況について詳述する。
機械学習モデルによってもたらされるリスクに対処する上で、ギャップがあることを識別する。
- 参考スコア(独自算出の注目度): 4.1964397179107085
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper details the privacy and security landscape in today's cloud
ecosystem and identifies that there is a gap in addressing the risks introduced
by machine learning models. As machine learning algorithms continue to evolve
and find applications across diverse domains, the need to categorize and
quantify privacy and security risks becomes increasingly critical. With the
emerging trend of AI-as-a-Service (AIaaS), machine learned AI models (or ML
models) are deployed on the cloud by model providers and used by model
consumers. We first survey the AIaaS landscape to document the various kinds of
liabilities that ML models, especially Deep Neural Networks pose and then
introduce a taxonomy to bridge this gap by holistically examining the risks
that creators and consumers of ML models are exposed to and their known
defences till date. Such a structured approach will be beneficial for ML model
providers to create robust solutions. Likewise, ML model consumers will find it
valuable to evaluate such solutions and understand the implications of their
engagement with such services. The proposed taxonomies provide a foundational
basis for solutions in private, secure and robust ML, paving the way for more
transparent and resilient AI systems.
- Abstract(参考訳): 本稿では,今日のクラウドエコシステムにおけるプライバシとセキュリティの状況について詳述するとともに,マシンラーニングモデルによって引き起こされるリスクに対処する上でギャップがあることを示す。
機械学習アルゴリズムが進化し続け、さまざまな領域にわたるアプリケーションを見つけるにつれ、プライバシとセキュリティリスクの分類と定量化の必要性がますます重要になっている。
AI-as-a-Service(AIaaS)の台頭とともに、機械学習AIモデル(あるいはMLモデル)はモデルプロバイダによってクラウドにデプロイされ、モデルコンシューマが使用する。
最初にAIaaSの状況を調査して、MLモデル、特にDeep Neural Networksが引き起こすさまざまな負債をドキュメント化し、そのギャップを埋めるための分類を紹介します。
このような構造化されたアプローチは、MLモデルプロバイダが堅牢なソリューションを作成する上で有益である。
同様に、MLモデル消費者は、そのようなソリューションを評価し、そうしたサービスとの関わりの意義を理解するのに価値があると考えている。
提案された分類学は、プライベートでセキュアで堅牢なMLにおけるソリューションの基盤を提供し、より透明でレジリエントなAIシステムへの道を開く。
関連論文リスト
- SoK: Unifying Cybersecurity and Cybersafety of Multimodal Foundation Models with an Information Theory Approach [58.93030774141753]
MFM(Multimodal foundation model)は、人工知能の大幅な進歩を表す。
本稿では,マルチモーダル学習におけるサイバーセーフティとサイバーセキュリティを概念化する。
我々は、これらの概念をMFMに統一し、重要な脅威を特定するための総合的知識体系化(SoK)を提案する。
論文 参考訳(メタデータ) (2024-11-17T23:06:20Z) - New Emerged Security and Privacy of Pre-trained Model: a Survey and Outlook [54.24701201956833]
セキュリティとプライバシーの問題は、事前訓練されたモデルに対するユーザーの信頼を損なう。
現在の文献は、事前訓練されたモデルに対する攻撃と防御の明確な分類を欠いている。
この分類法は、攻撃と防御をNo-Change、Input-Change、Model-Changeアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-12T10:15:33Z) - "Glue pizza and eat rocks" -- Exploiting Vulnerabilities in Retrieval-Augmented Generative Models [74.05368440735468]
Retrieval-Augmented Generative (RAG)モデルにより大規模言語モデル(LLM)が強化される
本稿では,これらの知識基盤の開放性を敵が活用できるセキュリティ上の脅威を示す。
論文 参考訳(メタデータ) (2024-06-26T05:36:23Z) - Privacy Implications of Explainable AI in Data-Driven Systems [0.0]
機械学習(ML)モデルは、解釈可能性の欠如に悩まされる。
透明性の欠如は、しばしばMLモデルのブラックボックスの性質と呼ばれ、信頼を損なう。
XAI技術は、内部の意思決定プロセスを説明するためのフレームワークと方法を提供することによって、この問題に対処する。
論文 参考訳(メタデータ) (2024-06-22T08:51:58Z) - Knowledge Distillation-Based Model Extraction Attack using GAN-based Private Counterfactual Explanations [1.6576983459630268]
本稿では,ML プラットフォーム内で MEA を実行する上で,モデル説明,特に非現実的説明をどのように活用できるかを検討することに注力する。
本稿では,代替モデルの抽出効率を高めるため,知識蒸留(KD)に基づくMEAの新しいアプローチを提案する。
また,差分プライバシー(DP)の有効性を緩和戦略として評価した。
論文 参考訳(メタデータ) (2024-04-04T10:28:55Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - A Review of Machine Learning-based Security in Cloud Computing [5.384804060261833]
クラウドコンピューティング(CC)は、ITリソースのユーザへの提供方法に革命をもたらしている。
CCの成長に伴い、可用性、完全性、機密性への脅威など、セキュリティ上のリスクが多数発生している。
機械学習(ML)は、セキュリティ問題の特定と解決における人間の介入を減らすために、クラウドサービスプロバイダ(CSP)によってますます利用されている。
論文 参考訳(メタデータ) (2023-09-10T01:52:23Z) - A Blackbox Model Is All You Need to Breach Privacy: Smart Grid
Forecasting Models as a Use Case [0.7714988183435832]
LSTMモデルへのブラックボックスアクセスは、データ自体へのアクセスに匹敵する膨大な量の情報を明らかにすることができることを示す。
これは、データと同じレベルで予測モデルを保護することの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-04T11:07:37Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Privacy-Preserving Machine Learning: Methods, Challenges and Directions [4.711430413139393]
よく設計されたプライバシー保護機械学習(PPML)ソリューションは、アカデミックや業界から研究の関心が高まりつつある。
本稿では,既存のプライバシ保護手法を体系的にレビューし,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
論文 参考訳(メタデータ) (2021-08-10T02:58:31Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。