論文の概要: Opacus: User-Friendly Differential Privacy Library in PyTorch
- arxiv url: http://arxiv.org/abs/2109.12298v1
- Date: Sat, 25 Sep 2021 07:10:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:13:00.571335
- Title: Opacus: User-Friendly Differential Privacy Library in PyTorch
- Title(参考訳): Opacus: PyTorchのユーザフレンドリな差別化プライバシライブラリ
- Authors: Ashkan Yousefpour, Igor Shilov, Alexandre Sablayrolles, Davide
Testuggine, Karthik Prasad, Mani Malek, John Nguyen, Sayan Gosh, Akash
Bharadwaj, Jessica Zhao, Graham Cormode, Ilya Mironov
- Abstract要約: 私たちは、差分プライバシーでディープラーニングモデルをトレーニングするための、オープンソースのPyTorchライブラリであるOpacusを紹介します。
シンプルでユーザフレンドリなAPIを提供しており、コードに最大2行を追加することで、マシンラーニングの実践者がトレーニングパイプラインをプライベートにすることができる。
- 参考スコア(独自算出の注目度): 54.8720687562153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Opacus, a free, open-source PyTorch library for training deep
learning models with differential privacy (hosted at opacus.ai). Opacus is
designed for simplicity, flexibility, and speed. It provides a simple and
user-friendly API, and enables machine learning practitioners to make a
training pipeline private by adding as little as two lines to their code. It
supports a wide variety of layers, including multi-head attention, convolution,
LSTM, and embedding, right out of the box, and it also provides the means for
supporting other user-defined layers. Opacus computes batched per-sample
gradients, providing better efficiency compared to the traditional "micro
batch" approach. In this paper we present Opacus, detail the principles that
drove its implementation and unique features, and compare its performance
against other frameworks for differential privacy in ML.
- Abstract(参考訳): OpacusはオープンソースのPyTorchライブラリで、差分プライバシー(opacus.aiでホストされている)でディープラーニングモデルをトレーニングする。
Opacusはシンプルさ、柔軟性、スピードのために設計されている。
シンプルでユーザフレンドリなAPIを提供し、コードに最大2行追加することで、機械学習実践者がトレーニングパイプラインをプライベートにすることができる。
マルチヘッドアテンション、畳み込み、LSTM、埋め込みなど、さまざまなレイヤをサポートすると同時に、他のユーザ定義レイヤをサポートする手段も提供する。
Opacusはバッチ化されたサンプル単位の勾配を計算し、従来の"マイクロバッチ"アプローチよりも効率がよい。
本稿では、Opacusを紹介し、その実装とユニークな特徴を駆動する原則を詳述し、その性能をMLの差分プライバシーのための他のフレームワークと比較する。
関連論文リスト
- Loop Improvement: An Efficient Approach for Extracting Shared Features from Heterogeneous Data without Central Server [16.249442761713322]
LI(Loop Improvement)は、この分離と特徴抽出を、参加者間の中央サーバやデータ交換を必要とせずに強化する新しい手法である。
パーソナライズされたフェデレーション学習環境では、LIは様々なシナリオで高度なFedALAアルゴリズムよりも精度が高い。
LIの適応性はマルチタスク学習にまで拡張され、タスク間で共通の機能の抽出が合理化され、同時にトレーニングする必要がなくなる。
論文 参考訳(メタデータ) (2024-03-21T12:59:24Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Scalable Federated Learning for Clients with Different Input Image Sizes
and Numbers of Output Categories [34.22635158366194]
フェデレートラーニング(Federated Learning)とは、複数のクライアントからトレーニングを受けるが、機密データを共有しないプライバシー保護トレーニング手法である。
本稿では,クライアントの入力画像サイズと出力カテゴリ数に応じて,各クライアントのローカルモデルの深さと幅を調節する,ScalableFLという効果的なフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-15T05:43:14Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - CECILIA: Comprehensive Secure Machine Learning Framework [2.949446809950691]
複雑な操作をプライベートに行えるPPビルディングブロックを提供するセキュアな3パーティフレームワークであるCECILIAを提案する。
CECILIAには2つの新しい方法があり、これは秘密のグラム行列の逆二乗根と秘密の値のパワーに引き上げられた公的な基底の正確な指数関数である。
このフレームワークは、他のMLアルゴリズムと、さらなる計算をプライベートに計算可能にすることを約束している。
論文 参考訳(メタデータ) (2022-02-07T09:27:34Z) - Routing with Self-Attention for Multimodal Capsule Networks [108.85007719132618]
我々は,カプセルの強度をマルチモーダル学習フレームワークの文脈で活用できる,新しいマルチモーダルカプセルネットワークを提案する。
カプセルを大規模入力データに適応させるために, カプセルを選択する自己保持機構による新たなルーティングを提案する。
これにより、ノイズの多いビデオデータによる堅牢なトレーニングだけでなく、従来のルーティング方法と比較してカプセルネットワークのサイズを拡大することが可能になる。
論文 参考訳(メタデータ) (2021-12-01T19:01:26Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Fedlearn-Algo: A flexible open-source privacy-preserving machine
learning platform [15.198116661595487]
オープンソースプライバシ保護機械学習プラットフォームであるFedlearn-Algoを紹介します。
このプラットフォームを使って、プライバシー保護機械学習アルゴリズムの研究と開発結果を実証しています。
論文 参考訳(メタデータ) (2021-07-08T21:59:56Z) - Captum: A unified and generic model interpretability library for PyTorch [49.72749684393332]
我々は,PyTorch用の新しい,統一されたオープンソースモデル解釈可能性ライブラリを紹介する。
このライブラリには、多くの勾配と摂動に基づく属性アルゴリズムの汎用的な実装が含まれている。
分類モデルと非分類モデルの両方に使用できる。
論文 参考訳(メタデータ) (2020-09-16T18:57:57Z) - GRAFFL: Gradient-free Federated Learning of a Bayesian Generative Model [8.87104231451079]
本稿では、GRAFFLと呼ばれる、最初の勾配のない連邦学習フレームワークを提案する。
参加する各機関から得られた暗黙の情報を用いて、パラメータの後方分布を学習する。
本稿では,GRAFFLに基づくベイズ混合モデルを提案する。
論文 参考訳(メタデータ) (2020-08-29T07:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。