論文の概要: SoK: Machine Learning with Confidential Computing
- arxiv url: http://arxiv.org/abs/2208.10134v1
- Date: Mon, 22 Aug 2022 08:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 14:33:18.520108
- Title: SoK: Machine Learning with Confidential Computing
- Title(参考訳): SoK: 信頼性コンピューティングによる機械学習
- Authors: Fan Mo, Zahra Tarkhani, Hamed Haddadi
- Abstract要約: 機械学習(ML)におけるプライバシとセキュリティの課題は、対処すべき重要なトピックになっている。
本稿では,機密計算支援MLセキュリティとプライバシ技術に関する知見を体系化する。
我々は、基盤となるプライバシー定義、分割されたML実行、ML専用のTEE設計、TEE対応ML、ML完全パイプライン保証など、将来的な作業について議論する。
- 参考スコア(独自算出の注目度): 5.457279006229211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy and security challenges in Machine Learning (ML) have become a
critical topic to address, along with ML's pervasive development and the recent
demonstration of large attack surfaces. As a mature system-oriented approach,
confidential computing has been increasingly utilized in both academia and
industry to improve privacy and security in various ML scenarios. In this
paper, we systematize the findings on confidential computing-assisted ML
security and privacy techniques for providing i) confidentiality guarantees and
ii) integrity assurances. We further identify key challenges and provide
dedicated analyses of the limitations in existing Trusted Execution Environment
(TEE) systems for ML use cases. We discuss prospective works, including
grounded privacy definitions, partitioned ML executions, dedicated TEE designs
for ML, TEE-aware ML, and ML full pipeline guarantee. These potential solutions
can help achieve a much strong TEE-enabled ML for privacy guarantees without
introducing computation and system costs.
- Abstract(参考訳): 機械学習(ML)におけるプライバシとセキュリティの課題は、MLの広範な開発と、最近の大規模な攻撃面のデモとともに、対処すべき重要なトピックとなっている。
成熟したシステム指向のアプローチとして、機密コンピューティングは、さまざまなMLシナリオのプライバシとセキュリティを改善するために、学術と産業の両方でますます活用されている。
本稿では,機密コンピューティング支援mlセキュリティとプライバシ技術に関する知見を体系化する。
一 秘密の保証及び保証
ii) 整合性保証。
さらに重要な課題を特定し、MLのユースケースに対する既存のTrusted Execution Environment(TEE)システムにおける制約を専門的に分析する。
我々は、基盤となるプライバシー定義、分割されたML実行、ML専用のTEE設計、TEE対応ML、ML完全パイプライン保証など、将来的な作業について議論する。
これらの潜在的なソリューションは、計算とシステムコストを導入することなく、プライバシー保証のための非常に強力なTEE対応MLを実現するのに役立つ。
関連論文リスト
- The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Special Session: Towards an Agile Design Methodology for Efficient,
Reliable, and Secure ML Systems [12.53463551929214]
現代の機械学習システムは、ハードウェア障害に対する高い信頼性と、敵やIP盗難攻撃に対する安全性が期待されている。
プライバシーに関する懸念も一段落している。
この記事では、効率的で信頼性があり、セキュアなMLシステムのアジャイル開発における主な課題を要約する。
論文 参考訳(メタデータ) (2022-04-18T17:29:46Z) - Confidential Machine Learning Computation in Untrusted Environments: A
Systems Security Perspective [1.9116784879310027]
本稿では,TEE保護型秘密MLにおける攻撃ベクトルの分類と緩和によって,信頼できない環境下での包括的かつ包括的調査を行う。
マルチパーティのMLセキュリティ要件を分析し、関連するエンジニアリング課題について議論する。
論文 参考訳(メタデータ) (2021-11-05T07:56:25Z) - Privacy-Preserving Machine Learning: Methods, Challenges and Directions [4.711430413139393]
よく設計されたプライバシー保護機械学習(PPML)ソリューションは、アカデミックや業界から研究の関心が高まりつつある。
本稿では,既存のプライバシ保護手法を体系的にレビューし,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
論文 参考訳(メタデータ) (2021-08-10T02:58:31Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - White Paper Machine Learning in Certified Systems [70.24215483154184]
DEEL Project set-up the ML Certification 3 Workgroup (WG) set-up by the Institut de Recherche Technologique Saint Exup'ery de Toulouse (IRT)
論文 参考訳(メタデータ) (2021-03-18T21:14:30Z) - Towards a Robust and Trustworthy Machine Learning System Development [0.09236074230806578]
最新のML信頼性と技術に関する最近の調査をセキュリティエンジニアリングの視点から紹介します。
次に、ML実践者のための標準的かつ視覚化された方法で知識の体を表すメタモデルを記述することによって、調査の前後に研究を進めます。
本稿では,堅牢で信頼性の高いMLシステムの開発を進めるための今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2021-01-08T14:43:58Z) - Robust Machine Learning Systems: Challenges, Current Trends,
Perspectives, and the Road Ahead [24.60052335548398]
機械学習(ML)技術は、スマートサイバーフィジカルシステム(CPS)とIoT(Internet-of-Things)によって急速に採用されています。
ハードウェアとソフトウェアの両方のレベルで、さまざまなセキュリティと信頼性の脅威に脆弱であり、その正確性を損ないます。
本稿では、現代のMLシステムの顕著な脆弱性を要約し、これらの脆弱性に対する防御と緩和技術の成功を強調する。
論文 参考訳(メタデータ) (2021-01-04T20:06:56Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。