論文の概要: secureTF: A Secure TensorFlow Framework
- arxiv url: http://arxiv.org/abs/2101.08204v1
- Date: Wed, 20 Jan 2021 16:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 05:19:07.609484
- Title: secureTF: A Secure TensorFlow Framework
- Title(参考訳): secureTF: セキュアなTensorFlowフレームワーク
- Authors: Do Le Quoc, Franz Gregor, Sergei Arnautov, Roland Kunkel, Pramod
Bhatotia, Christof Fetzer
- Abstract要約: secureTFは、クラウドインフラストラクチャのオンフローに基づいた分散機械学習フレームワークである。
SecureTFは、未修正のアプリケーションをサポートし、入力データ、MLモデル、アプリケーションコードのエンドツーエンドのセキュリティを提供する。
本稿では,本番環境におけるシステム設計選択とシステム配置に関する経験について報告する。
- 参考スコア(独自算出の注目度): 1.1006321791711173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven intelligent applications in modern online services have become
ubiquitous. These applications are usually hosted in the untrusted cloud
computing infrastructure. This poses significant security risks since these
applications rely on applying machine learning algorithms on large datasets
which may contain private and sensitive information.
To tackle this challenge, we designed secureTF, a distributed secure machine
learning framework based on Tensorflow for the untrusted cloud infrastructure.
secureTF is a generic platform to support unmodified TensorFlow applications,
while providing end-to-end security for the input data, ML model, and
application code. secureTF is built from ground-up based on the security
properties provided by Trusted Execution Environments (TEEs). However, it
extends the trust of a volatile memory region (or secure enclave) provided by
the single node TEE to secure a distributed infrastructure required for
supporting unmodified stateful machine learning applications running in the
cloud.
The paper reports on our experiences about the system design choices and the
system deployment in production use-cases. We conclude with the lessons learned
based on the limitations of our commercially available platform, and discuss
open research problems for the future work.
- Abstract(参考訳): 現代のオンラインサービスにおけるデータ駆動型インテリジェントアプリケーションは、ユビキタスになりつつある。
これらのアプリケーションは、通常、信頼できないクラウドコンピューティングインフラストラクチャにホストされる。
これらのアプリケーションは、プライベートでセンシティブな情報を含む可能性のある大規模データセットに機械学習アルゴリズムを適用することに依存しているため、大きなセキュリティリスクをもたらす。
この課題に対処するため、信頼できないクラウドインフラストラクチャ向けにTensorflowをベースとした分散セキュア機械学習フレームワークであるSecureTFを設計しました。
secureTFは、未修正のTensorFlowアプリケーションをサポートする汎用プラットフォームであり、入力データ、MLモデル、アプリケーションコードのエンドツーエンドセキュリティを提供する。
securetfはtrusted execution environment(tees)が提供するセキュリティプロパティに基づいて構築されている。
しかし、単一のノードTEEによって提供される揮発性メモリ領域(あるいはセキュアなエンクレーブ)の信頼性を拡張して、クラウド上で動作する無修正のステートフル機械学習アプリケーションをサポートするために必要な分散インフラストラクチャを確保する。
本稿では,システム設計の選択と本番環境でのシステム配置に関する経験について報告する。
最後に,当社の商用プラットフォームの限界から学んだ教訓をまとめ,今後の課題としてオープンリサーチの課題について論じる。
- 全文 参考訳へのリンク
関連論文リスト
- HBFL: A Hierarchical Blockchain-based Federated Learning Framework for a
Collaborative IoT Intrusion Detection [0.0]
セキュアでプライバシ保護されたコラボレーティブなIoT侵入検出を実現するために,階層的なブロックチェーンベースのフェデレーション学習フレームワークを提案する。
MLベースの侵入検出フレームワークの提案は、学習プロセスと組織データのプライバシを確保するために、階層的なフェデレーション付き学習アーキテクチャに従っている。
その結果は、データプライバシを保持しながら、広範囲の悪意あるアクティビティを検出できる、セキュアに設計されたMLベースの侵入検知システムである。
論文 参考訳(メタデータ) (2022-04-08T19:06:16Z) - Towards a Secure and Reliable Federated Learning using Blockchain [5.910619900053764]
Federated Learning(FL)は、デバイスがプライバシを保護しながらローカルデータセットを使用して学習を行うようなコラボレーショントレーニングを可能にする、分散機械学習技術である。
アドバンテージにもかかわらず、FLは信頼性、トラクタビリティ、匿名性に関連するいくつかの課題に悩まされている。
FLに適したセキュアで信頼性の高いブロックチェーンフレームワーク(SRB-FL)を提案する。
論文 参考訳(メタデータ) (2022-01-27T04:09:53Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - FedLess: Secure and Scalable Federated Learning Using Serverless
Computing [1.141832715860866]
フェデレートラーニング(FL)は、データをローカルに保ちながら、リモートクライアントが共有MLモデルを学ぶことを可能にする。
本稿では、FedLessと呼ばれるサーバーレスFLのための新しいシステムとフレームワークを提案する。
当社のシステムは,複数の商用および自己ホスト型Fプロバイダをサポートし,クラウド,オンプレミスの機関データセンタ,エッジデバイスにデプロイすることができる。
論文 参考訳(メタデータ) (2021-11-05T11:14:07Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - OpenFed: An Open-Source Security and Privacy Guaranteed Federated
Learning Framework [0.0]
フェデレーション学習は新しいタイプの人工知能であり、個人データ保護と利用のギャップを埋める技術を提供している。
ここでは,データ保護と利用の要求を同時に解決するオープンソースソフトウェアフレームワークであるOpenFedを紹介する。
論文 参考訳(メタデータ) (2021-09-16T10:31:59Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - Privacy and Integrity Preserving Training Using Trusted Hardware [4.5843599120944605]
DarKnightは、入力のプライバシーと整合性を保護しながら、大規模な計算トレーニングのためのフレームワークです。
DarKnightは、信頼できる実行環境(TEE)とアクセラレータ間の協調実行に依存している。
論文 参考訳(メタデータ) (2021-05-01T19:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。