論文の概要: Privacy and Security Implications of Cloud-Based AI Services : A Survey
- arxiv url: http://arxiv.org/abs/2402.00896v1
- Date: Wed, 31 Jan 2024 13:30:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 18:30:59.361849
- Title: Privacy and Security Implications of Cloud-Based AI Services : A Survey
- Title(参考訳): クラウドベースのAIサービスのプライバシとセキュリティへの影響 : 調査
- Authors: Alka Luqman, Riya Mahesh, Anupam Chattopadhyay
- Abstract要約: この記事では、今日のクラウドエコシステムにおけるプライバシとセキュリティの状況について詳述する。
機械学習モデルによってもたらされるリスクに対処する上で、ギャップがあることを識別する。
- 参考スコア(独自算出の注目度): 4.1964397179107085
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper details the privacy and security landscape in today's cloud
ecosystem and identifies that there is a gap in addressing the risks introduced
by machine learning models. As machine learning algorithms continue to evolve
and find applications across diverse domains, the need to categorize and
quantify privacy and security risks becomes increasingly critical. With the
emerging trend of AI-as-a-Service (AIaaS), machine learned AI models (or ML
models) are deployed on the cloud by model providers and used by model
consumers. We first survey the AIaaS landscape to document the various kinds of
liabilities that ML models, especially Deep Neural Networks pose and then
introduce a taxonomy to bridge this gap by holistically examining the risks
that creators and consumers of ML models are exposed to and their known
defences till date. Such a structured approach will be beneficial for ML model
providers to create robust solutions. Likewise, ML model consumers will find it
valuable to evaluate such solutions and understand the implications of their
engagement with such services. The proposed taxonomies provide a foundational
basis for solutions in private, secure and robust ML, paving the way for more
transparent and resilient AI systems.
- Abstract(参考訳): 本稿では,今日のクラウドエコシステムにおけるプライバシとセキュリティの状況について詳述するとともに,マシンラーニングモデルによって引き起こされるリスクに対処する上でギャップがあることを示す。
機械学習アルゴリズムが進化し続け、さまざまな領域にわたるアプリケーションを見つけるにつれ、プライバシとセキュリティリスクの分類と定量化の必要性がますます重要になっている。
AI-as-a-Service(AIaaS)の台頭とともに、機械学習AIモデル(あるいはMLモデル)はモデルプロバイダによってクラウドにデプロイされ、モデルコンシューマが使用する。
最初にAIaaSの状況を調査して、MLモデル、特にDeep Neural Networksが引き起こすさまざまな負債をドキュメント化し、そのギャップを埋めるための分類を紹介します。
このような構造化されたアプローチは、MLモデルプロバイダが堅牢なソリューションを作成する上で有益である。
同様に、MLモデル消費者は、そのようなソリューションを評価し、そうしたサービスとの関わりの意義を理解するのに価値があると考えている。
提案された分類学は、プライベートでセキュアで堅牢なMLにおけるソリューションの基盤を提供し、より透明でレジリエントなAIシステムへの道を開く。
関連論文リスト
- Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - A Survey of Serverless Machine Learning Model Inference [0.0]
ジェネレーティブAI、コンピュータビジョン、自然言語処理は、AIモデルをさまざまな製品に統合するきっかけとなった。
本調査は,大規模ディープラーニングサービスシステムにおける新たな課題と最適化の機会を要約し,分類することを目的としている。
論文 参考訳(メタデータ) (2023-11-22T18:46:05Z) - A Hypothesis on Good Practices for AI-based Systems for Financial Time
Series Forecasting: Towards Domain-Driven XAI Methods [0.0]
機械学習とディープラーニングは、財務予測や予測タスクでますます普及している。
これらのモデルは透明性と解釈可能性に欠けることが多く、金融のような繊細なドメインでの使用を困難にしている。
本稿では、金融のためのAIベースのシステムに説明可能性を展開するための優れた実践について考察する。
論文 参考訳(メタデータ) (2023-11-13T17:56:45Z) - A Review of Machine Learning-based Security in Cloud Computing [5.384804060261833]
クラウドコンピューティング(CC)は、ITリソースのユーザへの提供方法に革命をもたらしている。
CCの成長に伴い、可用性、完全性、機密性への脅威など、セキュリティ上のリスクが多数発生している。
機械学習(ML)は、セキュリティ問題の特定と解決における人間の介入を減らすために、クラウドサービスプロバイダ(CSP)によってますます利用されている。
論文 参考訳(メタデータ) (2023-09-10T01:52:23Z) - A Blackbox Model Is All You Need to Breach Privacy: Smart Grid
Forecasting Models as a Use Case [0.7714988183435832]
LSTMモデルへのブラックボックスアクセスは、データ自体へのアクセスに匹敵する膨大な量の情報を明らかにすることができることを示す。
これは、データと同じレベルで予測モデルを保護することの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-04T11:07:37Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Privacy-Preserving Machine Learning: Methods, Challenges and Directions [4.711430413139393]
よく設計されたプライバシー保護機械学習(PPML)ソリューションは、アカデミックや業界から研究の関心が高まりつつある。
本稿では,既存のプライバシ保護手法を体系的にレビューし,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
論文 参考訳(メタデータ) (2021-08-10T02:58:31Z) - Survey: Leakage and Privacy at Inference Time [59.957056214792665]
公開されている機械学習(ML)モデルからのデータの漏洩は、ますます重要になっている分野である。
公開モデルの最も可能性の高いシナリオとして、推論時のリークに注目します。
本稿では,不随意・不随意の漏洩,防御,そして現在利用可能な評価指標と応用にまたがる分類法を提案する。
論文 参考訳(メタデータ) (2021-07-04T12:59:16Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。