論文の概要、ライセンス

# (参考訳) 花の連合学習のためのセキュアアグリゲーション [全文訳有]

Secure Aggregation for Federated Learning in Flower ( http://arxiv.org/abs/2205.06117v1 )

ライセンス: CC BY 4.0
Kwing Hei Li, Pedro Porto Buarque de Gusm\~ao, Daniel J. Beutel, Nicholas D. Lane(参考訳) federated learning (fl)は、クライアントにトレーニング計算を委譲し、サーバ上で個別にトレーニングされたすべてのモデルを集約することで、共有予測モデルを学ぶことができる。 ローカルモデルからプライベート情報が推測されるのを防ぐため、セキュリティ集約(SA)プロトコルは、サーバが個別にトレーニングされたモデルを集約して検査できないことを保証するために使用される。 しかし、現在のflフレームワークにおけるsaの実装には、クライアントのドロップアウトに対する脆弱性や設定の困難など、制限がある。 本稿では、Flower FLフレームワークにおけるPythonユーザ向けSAの実装であるSalviaについて述べる。 半正直な脅威モデルのためのSecAgg(+)プロトコルに基づいて、Salviaはクライアントのドロップアウトに対して堅牢であり、さまざまな機械学習フレームワークと互換性のあるフレキシブルで使いやすいAPIを公開する。 本稿では、Salviaの実験性能がSecAgg(+)の理論計算と通信複雑性と一致することを示す。

Federated Learning (FL) allows parties to learn a shared prediction model by delegating the training computation to clients and aggregating all the separately trained models on the server. To prevent private information being inferred from local models, Secure Aggregation (SA) protocols are used to ensure that the server is unable to inspect individual trained models as it aggregates them. However, current implementations of SA in FL frameworks have limitations, including vulnerability to client dropouts or configuration difficulties. In this paper, we present Salvia, an implementation of SA for Python users in the Flower FL framework. Based on the SecAgg(+) protocols for a semi-honest threat model, Salvia is robust against client dropouts and exposes a flexible and easy-to-use API that is compatible with various machine learning frameworks. We show that Salvia's experimental performance is consistent with SecAgg(+)'s theoretical computation and communication complexities.
公開日: Thu, 12 May 2022 14:31:54 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Secure Aggregation for Federated Learning in Flower Pedro Porto Buarque de Gusmão フラワーPedro Porto Buarque de Gusmãoにおけるフェデレーション学習のためのセキュアな集約 0.70
Kwing Hei Li Kwing Hei Li 0.42
University of Cambridge UK ケンブリッジ大学 イギリス 0.61
University of Cambridge UK ケンブリッジ大学 イギリス 0.61
2 2 0 2 y a M 2 1 2 2 0 2 y a m 2 1 である。 0.52
] G L . s c [ ] G L。 sc [ 0.47
1 v 7 1 1 6 0 1 v 7 1 1 6 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Daniel J. Beutel Daniel J. Beutel 0.47
University of Cambridge UK ケンブリッジ大学 イギリス 0.61
ABSTRACT Federated Learning (FL) allows parties to learn a shared prediction model by delegating the training computation to clients and aggregating all the separately trained models on the server. abstract federated learning (fl)は、クライアントにトレーニング計算を委譲し、サーバ上で個別にトレーニングされたモデルを集約することで、共有予測モデルを学ぶことができる。 0.70
To prevent private information being inferred from local models, Secure Aggregation (SA) protocols are used to ensure that the server is unable to inspect individual trained models as it aggregates them. ローカルモデルからプライベート情報が推測されるのを防ぐため、セキュリティ集約(SA)プロトコルは、サーバが個別にトレーニングされたモデルを集約して検査できないことを保証するために使用される。 0.71
However, current implementations of SA in FL frameworks have limitations, including vulnerability to client dropouts or configuration difficulties. しかし、現在のflフレームワークにおけるsaの実装には、クライアントのドロップアウトに対する脆弱性や設定の困難など、制限がある。 0.53
In this paper, we present Salvia, an implementation of SA for Python users in the Flower FL framework. 本稿では、Flower FLフレームワークにおけるPythonユーザ向けSAの実装であるSalviaについて述べる。 0.74
Based on the SecAgg(+) protocols for a semi-honest threat model, Salvia is robust against client dropouts and exposes a flexible and easy-to-use API that is compatible with various machine learning frameworks. 半正直な脅威モデルのためのSecAgg(+)プロトコルに基づいて、Salviaはクライアントのドロップアウトに対して堅牢であり、さまざまな機械学習フレームワークと互換性のあるフレキシブルで使いやすいAPIを公開する。 0.69
We show that Salvia’s experimental performance is consistent with SecAgg(+)’s theoretical computation and communication complexities. 本稿では,Salviaの実験性能がSecAgg(+)の理論計算と通信の複雑さと一致することを示す。 0.75
CCS CONCEPTS • Security and privacy→ Distributed systems security; • Computing methodologies → Machine learning approaches. CCS CONCEPTS • セキュリティとプライバシ → 分散システムのセキュリティ; • コンピューティング方法論 → 機械学習アプローチ。 0.90
KEYWORDS Federated Learning, Secure Aggregation, Secure Multi-party Computation KEYWORDSフェデレーションラーニング、セキュアアグリゲーション、セキュアなマルチパーティ計算 0.75
1 INTRODUCTION Federated Learning (FL) [19, 27] is a recent machine learning (ML) paradigm that allows a centralized server to compute a global model by aggregating local models trained by a set of clients. 1 INTRODUCTION Federated Learning (FL) [19, 27]は最近の機械学習(ML)パラダイムで、集中型サーバがクライアントの集合によって訓練されたローカルモデルを集約することでグローバルモデルを計算することができる。 0.87
Though not having direct access to users’ data, a malicious server can still infer patterns of private data through inference attacks on clients’ local models [2, 12, 28]. ユーザのデータに直接アクセスできないが、悪意のあるサーバは、クライアントのローカルモデル [2, 12, 28] に対する推論攻撃を通じて、プライベートデータのパターンを推論することができる。 0.79
Secure aggregation (SA) [6], in general, refers to any protocol that allows a group of mutually distrustful parties, each holding a private value, to compute an aggregate value without revealing any information about their private value to each other. セキュリティアグリゲーション(SA) [6] は、一般に、互いに不信な当事者の集団がそれぞれプライベートな値を保有し、プライベートな価値に関する情報を互いに公開することなくアグリゲーション値を計算できるプロトコルを指す。 0.70
This is especially relevant in the context of FL as we would want the server to perform the aggregation step with SA. これは、サーバがSAでアグリゲーションステップを実行することを望んでおり、FLのコンテキストにおいて特に関係があります。 0.57
That way, the server cannot access clients’ trained models and obtain information about their private data. これにより、サーバはクライアントのトレーニング済みモデルにアクセスできなくなり、プライベートデータに関する情報を取得することができる。 0.69
Current implementations of SA in FL frameworks generally fall FLフレームワークにおけるSAの現在の実装は一般的に低下する 0.54
under one of two main categories: 主な2つのカテゴリーの1つです 0.71
Trusted Execution Environment: The data-sensitive computation for aggregating models is delegated to an isolated processing Trusted Execution Environment: 集約モデルに対するデータセンシティブな計算を独立した処理に委譲する 0.78
Nicholas D. Lane ニコラス・D・レーン 0.45
University of Cambridge UK ケンブリッジ大学 イギリス 0.61
environment, which is supported by trusted hardware running parallel to the operating system, e g the Intel Software Guard Extensions [13]. 環境は、intel software guard extensions [13]のように、オペレーティングシステムと並行して動作する信頼できるハードウェアによってサポートされている。 0.75
The server is only able to inspect the final result of the computation, but not any intermediate results or inputs to the computation performed in the isolated environment. サーバは、計算の最終結果のみを検査できるが、分離された環境で実行された計算に対する中間結果や入力は検査できない。 0.83
FL frameworks such as PySyft [23] and OpenFL [22] provide support for this kind of SA, by using a lightweight library OS, Graphene [8], to integrate its code with the secure hardware. pysyft [23] や openfl [22] といった fl フレームワークは,軽量ライブラリ os である graphene [8] を使用して,セキュアなハードウェアとコードを統合することで,この種の sa をサポートする。 0.83
However, a ML engineer may find it difficult to configure the program files to use the hardware; Configuration steps are long and complicated, and there is a lack of documentation and examples for using these trusted hardware to perform SA in FL. しかし、MLエンジニアは、ハードウェアを使用するためのプログラムファイルを設定するのが難しく、構成手順は長く複雑であり、これらの信頼できるハードウェアを使用してFLでSAを実行するためのドキュメントや例が不足している。 0.76
In addition, various attacks [16, 18] targeting supposedly-secure hardware have been discovered in recent years. さらに近年,セキュアなハードウェアを狙った様々な攻撃[16,18]が発見されている。 0.84
Multi-party Computation: Privacy of locally-trained models is achieved by applying techniques from cryptography, e g Yao’s garbled circuits [31], homomorphic encryption [10] or secret sharing [7]. マルチパーティ計算: ローカルトレーニングされたモデルのプライバシは,yaoのgarbled回路[31]や準同型暗号[10],シークレット共有[7]といった,暗号技術を適用することで実現される。 0.74
Instead of relying on trusted hardware, the server operates directly on encrypted or masked models to calculate the aggregated result without revealing individual clients’ contributions. 信頼できるハードウェアに頼る代わりに、サーバは暗号化またはマスクされたモデル上で直接動作し、個々のクライアントの貢献を明かさずに集約された結果を計算する。 0.59
FL frameworks such as Crypten [15] provide support for this kind of SA. crypten [15]のようなflフレームワークは、この種のsaをサポートする。 0.64
Though these SA methods can be designed to expose an easy-to-use API to engineers, most implementations of multi-party computation SA protocols cannot work around dropouts, a phenomenon all too common with cross-device FL. これらのSAメソッドは、エンジニアに使いやすいAPIを公開するように設計されていますが、マルチパーティのSAプロトコルの実装のほとんどは、ドロップアウトを回避できません。 0.64
On top of that, these protocols often incur significant computation and communication overhead, making them infeasible in larger FL experiments. その上、これらのプロトコルは、しばしば大きな計算と通信のオーバーヘッドを負い、より大きなfl実験では実現不可能である。 0.58
In summary, most implementations or proposed solutions for SA in common FL frameworks have one or more of the following limitations that hinder their usability: • Not trivial to configure and use. 要約すると、一般的なFLフレームワークにおけるSAの実装や提案されたソリューションのほとんどは、ユーザビリティを妨げる以下の制限の1つ以上のものを持っています。 0.67
This is the case for most frameworks, especially those that rely on trusted execution environments for SA, like PySyft and OpenFL. これは、ほとんどのフレームワーク、特にpysyftやopenflのようなsaの信頼できる実行環境に依存しているフレームワークのケースです。
訳抜け防止モード: ほとんどのフレームワーク、特にそうである場合です。 PySyftやOpenFLのような、SAの信頼できる実行環境に依存します。
0.72
• Dependent on certain trusted hardware and prone to existing or future attacks on it. • 特定の信頼できるハードウェアに依存し、それに対する既存または将来の攻撃の可能性が高い。 0.62
This is the case for all frameworks that use trusted hardware for SA, like PySyft and OpenFL. これは、pysyftやopenflなど、saに信頼できるハードウェアを使用するすべてのフレームワークの場合です。 0.68
• Inability to tolerate client dropouts. • クライアントのドロップアウトを許容できない。 0.73
This is the case for most frameworks that utilize multi-party computation protocols for SA, like Crypten. これはcryptenのようなsaのマルチパーティ計算プロトコルを利用するほとんどのフレームワークのケースである。 0.70
• Computation and communication overhead too significant to be used in larger FL settings. • 大きなFL設定で使用するには計算と通信のオーバーヘッドが大きすぎる。 0.75
This is the case for many proposed multi-party computation protocols, where the protocol itself is computationally expensive [21]. これは、プロトコル自体が計算コストのかかる[21]という、多くのマルチパーティ計算プロトコルのケースである。 0.78
In this paper, we present Salvia [17], an implementation of SA in the open-source FL framework Flower that aims to address each of the above limitations by: 本稿では,オープンソースのFLフレームワークFlowerにおけるSAの実装であるSalvia [17]について述べる。
訳抜け防止モード: 本稿では,オープンソースのFLフレームワークFlowerにおけるSAの実装であるSalvia [17 ]を紹介する。 上記の制限に 対処することを目的としています
0.66
英語(論文から抽出)日本語訳スコア
Flower’s existing Strategy abstraction. flowerの既存の戦略抽象化。 0.77
• Exposing a flexible and easily-configurable API that works with • Utilizing a multi-party computation protocol that does not re• Tolerating various percentages of client dropouts while providing • Using a SA algorithm that has low theoretical computation and • フレキシブルで構成が容易なAPIを公開 • 再起動しないマルチパーティ計算プロトコルを活用する• 理論計算の少ないSAアルゴリズムを使用することで、クライアントのドロップアウトのさまざまなパーセンテージを許容する。 0.87
strong security guarantees. quire trusted hardware. 強力な安全保証だ 信頼できるハードウェアだ 0.75
communication complexities. We explain Salvia’s system design and implementation details in section 2 and section 3, respectively. 通信の複雑さ Salviaのシステム設計と実装の詳細をセクション2とセクション3でそれぞれ説明します。 0.74
We also present experiments that explore the algorithmic aspects of Salvia’s computation and communication costs in section 4. また,第4節において,salviaの計算と通信コストのアルゴリズム的側面を考察する実験を行った。 0.73
Lastly, we discuss Salvia’s current limitations and directions for future work in section 5. 最後に、セクション5でSalviaの現在の制限と今後の作業の方向性について論じる。 0.72
2 SYSTEM DESIGN We present Salvia’s design goals that address limitations of other SA implementations, and summarize the assumptions made for our implementation. 2 システム設計 私たちは、他のsa実装の制限に対処するsalviaの設計目標を示し、実装のためになされた仮定を要約します。 0.59
We also present Flower and SecAgg(+), which are the chosen underlying framework and SA protocol for Salvia’s design, respectively. また、Salviaの設計の基盤となるフレームワークとして選択されたFlowerとSecAgg(+)を紹介します。
訳抜け防止モード: Flower と SecAgg(+ ) も提示します。 Salviaの設計で選択された基盤となるフレームワークとSAプロトコルです。
0.67
2.1 Design Goals Many frameworks provide support for SA, though there are weaknesses in their designs that hinder engineers from using them. 2.1設計目標 多くのフレームワークがsaをサポートするが、その設計にはエンジニアの使用を妨げる弱点がある。 0.74
Based on these observations, we present five main design goals for implementing Salvia: これらの観測に基づいて、サルビアを実装するための5つの主要な設計目標を示す。 0.56
1) Usability: Given the difficulty in using SA for some FL frame- 1)使いやすさ:一部のFLフレームにSAを使用するのが困難であること 0.63
works, Salvia should be intuitive and easy to use. Salviaは直感的で使いやすくなければならない。 0.71
2) Flexibility: Given the complexity of FL systems, Salvia should provide a flexible API for users to configure parameters of the protocol to fit their experiment/deploymen t goals. 2)フレキシビリティ: FLシステムの複雑さを考えると、Salviaはユーザがプロトコルのパラメータを実験/デプロイの目標に合うように設定するためのフレキシブルなAPIを提供するべきです。 0.73
3) Compatibility: Given the robust and diverse range of existing ML frameworks, Salvia should be compatible with the most commonly-used ones. 3) 互換性: 堅牢で多様なmlフレームワークを考えると、salviaは最も一般的に使用されているものと互換性があるべきです。 0.54
4) Reliability: Given that dropouts of mobile devices in FL is 4)信頼性:FLにおけるモバイルデバイスの落ち込みを考える 0.77
common, Salvia should be robust against such behaviour. 一般的に、サルビアはそのような行動に対して頑丈であるべきだ。 0.37
5) Efficiency: Given that real-world FL is often used on large systems, Salvia should not incur significant communication and computation overhead to the FL training. 5) 効率性: 実世界のflが大規模システムでよく使用されることから、salviaはflトレーニングに重要なコミュニケーションと計算オーバーヘッドを負うべきではない。 0.68
2.2 Assumptions We present the assumptions made for our implementation: 2.2 前提 実施の前提を述べる。 0.45
Semi-honest threat model: Parties cannot deviate from the protocol specification. semi-honest threat model: プロトコル仕様から逸脱することはできない。 0.72
However, corrupted parties may cooperate outside the protocol to exchange information, e g secret shares. しかし、腐敗した当事者はプロトコルの外で協力し、秘密の共有など情報を交換することができる。 0.60
Liveness properties on the response time of clients: After sending a request to a client, the server eventually receives a response or detects a disconnection from the client. クライアントの応答時間に関するライブプロパティ: リクエストをクライアントに送信した後、サーバは最終的に応答を受け取り、クライアントからの切断を検出する。 0.79
Secure links between clients and server: Links are encrypted クライアントとサーバ間の安全なリンク:リンクは暗号化される 0.73
and authenticated in advance. 前もって認証しました 0.55
2.3 Framework Selection – Flower Flower (Figure 1) [5] is a recent FL framework that provides higherlevel abstractions enabling researchers to extend and implement FL ideas on a reliable stack. 2.3 framework selection – flower flower (図1) [5]は、研究者が信頼できるスタック上でflのアイデアを拡張し実装できる、ハイレベルな抽象化を提供する最近のflフレームワークである。 0.66
It is one of the very few frameworks that can support heterogeneous clients running on different ML これは、異なるML上で動作する異種クライアントをサポートすることができる数少ないフレームワークの1つである。 0.61
K. H. Li et al K. H. Li et al 0.44
frameworks (including TensorFlow [1] and PyTorch [20]) and using different programming languages. フレームワーク(TensorFlow [1]とPyTorch [20]を含む)と異なるプログラミング言語を使用する。 0.87
Choosing Flower as Salvia’s underlying FL framework allows Salvia to be compatible with many existing ML frameworks; Each client can freely choose which ML framework to use for their local training pipelines independently. Salviaの基盤となるFLフレームワークとしてFlowerを選択することで、Salviaは多くの既存のMLフレームワークと互換性を持つことが可能になる。
訳抜け防止モード: Salviaの基盤となるFLフレームワークとしてFlowerを選択することで、Salviaは既存の多くのMLフレームワークと互換性を持つことができる 各クライアントは、それぞれのローカルトレーニングパイプラインで使用するMLフレームワークを独立して選択できる。
0.66
Flower also has a large suite of built-in Strategies representing state-of-the-art FL algorithms for users to freely extend, modify, and use for their experiments. Flowerにはまた、ユーザが自由に拡張、修正、実験に使える最先端のFLアルゴリズムを表す、大きな組込み戦略も備えている。 0.69
We also note that Flower did not have any support for SA in the past, which is a significant limitation in terms of privacy promises associated with FL. また、flowerは過去にsaをサポートしていませんでしたが、flに関連するプライバシの約束という面では、かなり制限されています。 0.58
Figure 1: Flower’s Basic Architecture (without Salvia) 図1: Flowerの基本アーキテクチャ(Salviaなしで) 0.75
2.4 Protocol Selection – SecAgg(+) We chose the SecAgg [25] and SecAgg+ [4] protocols for semihonest scenarios (parties cannot deviate from the protocol) as the base algorithm of Salvia. 2.4 Protocol Selection – SecAgg(+) 私たちは、Salviaのベースアルゴリズムとして、半正直なシナリオ(プロトコルから逸脱できない部分)のためのSecAgg [25]とSecAgg+ [4]プロトコルを選択しました。 0.76
These multi-party computation protocols rely on cryptographic primitives to generate private masks for encrypting locally-trained models seen as a single vector of integer weights. これらのマルチパーティ計算プロトコルは暗号プリミティブに依存して、ローカルにトレーニングされたモデルを整数重みのベクトルとして暗号化するプライベートマスクを生成する。 0.64
These masks cancel each other out when the encrypted vectors are aggregated. これらのマスクは、暗号化されたベクトルが集約されたときに互いにキャンセルされる。 0.49
We use 𝑛 and 𝑙 to denote the number of clients participating in the protocol and the model size, respectively. n と l を使ってそれぞれプロトコルに参加するクライアントの数とモデルサイズを表しています。 0.74
We use 𝑘 to denote the number of other clients each client communicates with (including itself) in the protocol, using the server as a relay. 私たちはkを使って、各クライアントがプロトコル内で(それ自身を含む)通信する他のクライアントの数を表し、サーバをリレーとして使用します。 0.72
Like SecAgg and SecAgg+, there are five stages in Salvia: Stage 0 – Setup Parameters: The server sends values of the secaggとsecagg+のように、salviaには5つのステージがある。 ステージ0 – セットアップパラメータ: サーバが値を送信する。
訳抜け防止モード: SecAggやSecAgg+のように、サルビアには5つのステージがある。 ステージ0 - 設定パラメータ サーバは値を送信する
0.76
protocol’s parameters to each client. 各クライアントに対するプロトコルのパラメータ。 0.77
Stage 1 – Ask Keys: Each client generates private-public keys ステージ1 - Ask Keys: 各クライアントがプライベート公開キーを生成する 0.82
and shares the public keys via the server. 公開鍵をサーバー経由で共有します 0.60
Stage 2 – Share Keys: Each client generates secret shares of its private key and a randomly generated seed, and shares it with its 𝑘 neighbors via the server. ステージ2 – 共有キー: 各クライアントはプライベートキーとランダムに生成されたシードの秘密の共有を生成し、サーバ経由でそのk隣人と共有する。 0.84
Stage 3 – Ask Vectors: Each client creates masks for its model vector, generated with its private key and randomly generated seed. ステージ3 – Ask Vectors: 各クライアントはモデルベクターのマスクを作成し、プライベートキーとランダムに生成されたシードで生成する。 0.83
It then sends the masked vector to the server. その後、マスク付きベクターをサーバに送信する。 0.80
Stage 4 – Unmask Vectors: The server asks clients to contribute secret shares they have received in the Share Keys Stage to remove the masks of the aggregated masked vector. ステージ4 – Unmask Vectors: サーバはクライアントに、共有キーステージで受け取った秘密の共有に貢献するように求め、集約されたマスクベクターのマスクを削除する。 0.82
The main difference between SecAgg and SecAgg+ lies in the value of 𝑘. SecAggとSecAgg+の主な違いは、kの値にある。 0.70
For the former, the value of 𝑘 is the same as 𝑛. 前者の場合、k の値は n と同じである。 0.70
As a result, all clients consider each other to be close neighbors, and secret shares are generated for all other clients. その結果、すべてのクライアントは互いに隣同士であるとみなし、他のすべてのクライアントに対して秘密の共有が生成される。 0.70
For the latter, 𝑘 is any 後者の場合、k は任意の 0.69
英語(論文から抽出)日本語訳スコア
Secure Aggregation for Federated Learning in Flower 花の連合学習のためのセキュアアグリゲーション 0.78
value smaller than 𝑛 (usually 𝑂(log 𝑛)). n より小さい値(通常はo(log n))。 0.79
Each client thus produces shares for its closest 𝑘 neighbors (including itself), thus producing a (𝑘 − 1)-connected communication graph. 従って、各クライアントは(それ自身を含む)最も近いk近傍の共有を生成し、(k − 1)-接続された通信グラフを生成する。 0.72
As both protocols differ mainly by their 𝑘 value 1 and that their underlying algorithms work similarly, we use SecAgg(+) to represent both protocols. どちらのプロトコルもk値 1 と基礎となるアルゴリズムが同じように動作するので、SecAgg(+) を使って両方のプロトコルを表現します。 0.74
The computation and communication overhead complexities of 計算と通信のオーバーヘッドの複雑さ 0.81
Salvia are summarized in Table 1. Salvia は Table 1 にまとめられている。 0.75
Table 1: SecAgg(+)’s Overhead 表1:SecAgg(+)のオーバーヘッド 0.68
Computation Communication Server 𝑂(𝑛𝑘(𝑘 + 𝑙)) 𝑂(𝑘(𝑘 + 𝑙)) Client 計算通信 Server O(nk(k + l)) O(k(k + l))クライアント 0.76
𝑂(𝑛(𝑘 + 𝑙)) 𝑂(𝑘 + 𝑙) 𝑂(𝑛(𝑘 + 𝑙)) 𝑂(𝑘 + 𝑙) 0.42
We chose these two protocols as the base algorithm of Salvia for この2つのプロトコルをサルビアの 基本アルゴリズムとして選択しました 0.63
the following reasons: Flexible API: SecAgg(+) lends itself easily to provide a variety of parameters to be configured, allowing us to design a set of APIs that is flexible to the user’s needs. 次の理由は フレキシブルAPI: SecAgg(+)は、設定すべきさまざまなパラメータを提供するのに簡単に役立ち、ユーザのニーズに応じてフレキシブルなAPIセットを設計できます。 0.75
Depending on the parameters used, the protocols can tolerate various percentages of corrupt users and dropouts, and is suitable for a wide range of FL scenarios of various complexities. 使用するパラメータによっては、プロトコルは様々なユーザとドロップアウトのパーセンテージを許容し、様々な複雑さの幅広いFLシナリオに適合する。 0.68
This enables us to specifically address both our Flexibility and Reliability design goals. これにより、フレキシビリティと信頼性の両方の設計目標に特に対処できます。 0.64
Simple Configuration: The execution of these protocols for both the server and clients do not rely on any special hardware support. 単純な構成: サーバとクライアントの両方でこれらのプロトコルの実行は特別なハードウェアサポートに依存しません。 0.88
This allows much of the logic to be directly implemented into a FL framework, decreasing the amount of configuration work a user has to set up to use Salvia. これにより、多くのロジックをFLフレームワークに直接実装することができ、ユーザがSalviaを使用するために設定しなければならない設定作業量を削減できる。 0.69
This enables us to specifically address our Usability design goal. これにより、ユーザビリティ設計の目標に特に対処できます。 0.62
Low Overhead: SecAgg’s communication and computation overhead is lower than other traditional multi-party computation SA protocols. 低オーバーヘッド: SecAggの通信と計算オーバーヘッドは、従来のマルチパーティ計算SAプロトコルよりも低い。 0.68
This overhead is even more significantly lowered when SecAgg+ is used, allowing a smaller value of 𝑘 to be used without sacrificing significant security guarantees. このオーバーヘッドはSecAgg+を使用するとさらに大幅に減少し、重要なセキュリティ保証を犠牲にすることなくkの値が小さくなる。 0.69
For example, the server’s communication and computation complexities are linear to 𝑛. 例えば、サーバーの通信と計算の複雑さは n に線形である。 0.74
Furthermore, the client’s communication and computation complexities do not increase with 𝑛. さらに、クライアントの通信と計算の複雑さはnでは増加しない。 0.80
This enables us to specifically address our Efficiency design goal. これにより、効率性設計の目標に特に対処できます。 0.65
Clear Specifications: SecAgg(+) served as the inspiration for many other SA multi-party computation algorithms, e g CCESA [9], TurboAgg [29] and FastSecAgg [14]. 明確な仕様:SecAgg(+)は、他の多くのSAマルチパーティ計算アルゴリズム、例えばCCESA [9]、TurboAgg [29]、FastSecAgg [14]のインスピレーションとなった。
訳抜け防止モード: 明確な仕様 : SecAgg(+ )は、他の多くのSAマルチパーティ計算アルゴリズムのインスピレーションとなった。 e g CCESA [9 ], TurboAgg [29 ] そしてFastSecAgg [14 ]。
0.80
We are also not aware of other common FL frameworks that provide SA via the SecAgg(+) protocols. また、SecAgg(+)プロトコルを介してSAを提供する他の一般的なFLフレームワークも知りません。 0.58
Implementing SecAgg(+) in a FL framework could provide valuable insights on the implementations of other similar protocols. FLフレームワークでSecAgg(+)を実装することで、他の同様のプロトコルの実装に関する貴重な洞察を得ることができる。
訳抜け防止モード: flフレームワークにおけるsecagg(+ )の実装 他の同様のプロトコルの実装に関する貴重な洞察を提供することができる。
0.65
To use Salvia, the user must provide a Salvia-compatible Strategy that provides the configuration parameters of the protocol when starting the server, see subsection 3.3 and subsection 3.4 for details. Salviaを使用するには、サーバの起動時にプロトコルの設定パラメータを提供するSalvia互換の戦略を提供する必要がある。
訳抜け防止モード: サルビアを使う。 ユーザはSalvia互換の戦略を提供しなければならない サーバ起動時にプロトコルの設定パラメータを提供する。 詳細は第3条3項及び第3条4項を参照。
0.58
Salvia’s server-side logic provides functions that are called by the FL Loop, the heart of Flower’s core architecture (Figure 1). Salviaのサーバサイドロジックは、Flowerのコアアーキテクチャの中心であるFL Loopによって呼び出される関数を提供する(図1)。
訳抜け防止モード: Salviaのサーバ - サイドロジックは関数を提供する Flower の中核アーキテクチャ (図1 ) の心臓部である FL Loop によって呼び出されます。
0.84
In a normal FL round, the loop asks the Strategy to produce configuration parameters, sends those parameters to the clients via the RPC server and client, receives the trained clients’ model vectors and delegates the result aggregation to the Strategy. 通常のFLラウンドでは、ループはStrategyに設定パラメータを生成し、RPCサーバとクライアントを介してそれらのパラメータをクライアントに送信し、訓練されたクライアントのモデルベクトルを受信し、結果アグリゲーションをStrategyに委譲する。 0.77
If the user chooses to use SA in their FL training stage, a special sec_agg_fit function is executed in the Loop, which first asks the Strategy to provide parameters that customize core aspects of the SA algorithm. ユーザがFLトレーニング段階でSAを使用する場合、Loopで特別なsec_agg_fit関数が実行される。
訳抜け防止モード: FLトレーニング段階でSAを使用する場合 特別なsec_agg_fit関数はループで実行される。 まず、SAアルゴリズムの中核的な側面をカスタマイズするパラメータを提供するようストラテジーに要求する。
0.64
Unlike a normal FL, the aggregation computation is performed within the Loop instead of being delegated to the Strategy. 通常のFLとは異なり、集約計算は戦略に委譲される代わりにループ内で実行される。 0.64
Though this limits the flexibility of the aggregation step (subsection 3.3), this is necessary as the aggregation computation involves complicated logic to remove the masks of the aggregated model vector, and should not be exposed to the user directly. これはアグリゲーションステップの柔軟性を制限する(第3条3項)が、アグリゲーション計算は集約されたモデルベクトルのマスクを除去する複雑なロジックを必要とするため必要であり、ユーザに直接露出するべきではない。 0.77
Figure 2: Server-side Architecture with Salvia The Salvia-compatible Strategy can be one of the standard Strategies provided by Flower (grey), or one that is implemented by the user themselves (blue). 図2: Salviaとのサーバサイドアーキテクチャ Salvia互換戦略は、Flower(グレー)が提供する標準戦略の1つ、あるいはユーザ自身(ブルー)によって実装される戦略の1つです。 0.83
Salvia’s client-side logic is implemented in a wrapper class of the Flower client. Salviaのクライアントサイドロジックは、Flowerクライアントのラッパークラスで実装されている。 0.84
Depending on the header of the messages received, the client inspects its contents, executes the corresponding SecAgg(+) function, and responds to the server’s request for each stage of the SecAgg(+) protocol. 受信したメッセージのヘッダによって、クライアントはその内容を検査し、対応するSecAgg(+)関数を実行し、SecAgg(+)プロトコルの各ステージに対するサーバの要求に応答する。 0.76
3 IMPLEMENTATION We now describe details of implementing Salvia within Flower. 3 IMPLementations Flower内でのSalviaの実装の詳細を説明します。 0.71
3.1 Salvia’s Architecture Salvia’s architecture consists of three major components: Salviacompatible Strategies, the server-side logic (Figure 2), and the clientside logic (Figure 3). 3.1 Salviaのアーキテクチャ Salviaのアーキテクチャは、Salvia互換戦略、サーバサイドロジック(図2)、クライアントサイドロジック(図3)という3つの主要なコンポーネントで構成されています。
訳抜け防止モード: 3.1 Salvia の Architecture Salvia のアーキテクチャは,3つの主要なコンポーネントで構成されている。 サーバ - サイドロジック (図2 ) とクライアントサイドロジック (図3 ) です。
0.81
1We acknowledge the fact that there exists an optimization that only works for SecAgg, but not SecAgg+ in the Unmask Vectors Stage. 1Unmask Vectors StageにはSecAggのみで動作するがSecAgg+ではない最適化が存在するという事実を認めます。 0.82
However, since both protocols have many features in common, we consider SecAgg+ as a generalized version of SecAgg. しかし,両プロトコルには共通点が多いため,SecAgg+はSecAggの汎用バージョンと考える。 0.64
Figure 3: Client-side Architecture with Salvia 図3: Salviaによるクライアントサイドアーキテクチャ 0.82
3.2 Cryptographic Primitives A suite of functions providing cryptographic primitives are used in both the server and client-side logic of Salvia. 3.2 暗号プリミティブ 暗号プリミティブを提供する一連の関数は、Salviaのサーバとクライアントサイドロジックの両方で使用される。 0.61
We opted not to directly provide our own implementations of these cryptographic primitives at the current stage. 現在の段階では、これらの暗号プリミティブの実装を直接提供しないことを選択しました。 0.61
Instead, we make use of cryptography modules that are widely used in the Python community to 代わりに、Pythonコミュニティで広く使われている暗号化モジュールを使用します。 0.76
英語(論文から抽出)日本語訳スコア
limit the risk of incorrect implementation of critical cryptography functions. 臨界暗号関数の不正な実装のリスクを制限する。 0.72
We discuss the cryptographic primitives used in Salvia. サルビアで使用される暗号プリミティブについて論じる。 0.54
Private-Public Key Generation: This is used to create a common seed between two clients for generating pairwise masks, and a mutual key shared between two clients for authenticated encryption of secret shares. プライベート公開鍵生成: これは、2つのクライアント間で共通のシードを作成し、ペアワイズマスクを生成し、2つのクライアント間で共有し、秘密共有の暗号化を認証するために使用される。 0.74
We used functions provided by the Elliptic curve cryptography module in Cryptography [3] for this primitive. このプリミティブのために,楕円曲線暗号モジュールが提供する関数をCryptography[3]で使用した。 0.75
Authenticated Encryption: To distribute secret shares during the Share Keys stage, the message is encrypted by an authenticated encryption function to guarantee confidentiality and integrity of the message. 認証暗号化: 共有キーの段階で秘密共有を配布するために、メッセージは認証暗号化機能によって暗号化され、メッセージの機密性と整合性が保証される。 0.73
We used functions provided by the Fernet module in Cryptography for this primitive. このプリミティブのために暗号でfernetモジュールが提供する関数を使いました。 0.63
𝑡-out-of-𝑛 Secret Sharing Scheme: Depending whether a client dropped out after the Ask Vectors Stage, the server asks all clients for a secret share they received, either from the original client’s first private key, or its private seed. t-out-n Secret Sharing Scheme: Ask Vectors Stageの後にクライアントがドロップアウトしたかどうかによって、サーバはすべてのクライアントに対して、元のクライアントの最初のプライベートキーまたはそのプライベートシードから受け取ったシークレットシェアを求める。 0.82
If at least 𝑡 out of 𝑛 shares are received by the server, then the secret is reconstructed [26]. n株のうち少なくともt株がサーバから受信された場合、秘密は再構築される[26]。
訳抜け防止モード: n 株のうち少なくとも t がサーバから受信された場合。 すると 秘密は再構築されます [26]
0.84
Otherwise, the shares cannot give any extra information about the secret. さもなければ、株式は秘密に関する追加情報を与えることはできない。 0.71
We used the Shamir’s secret sharing module from the PyCryptodome [11] library for this primitive. 私たちはこのプリミティブのために、PyCryptodome [11]ライブラリからShamirの秘密共有モジュールを使用しました。 0.74
Random Number Generator: Each client produces a random number that acts as the seed for generating its own private mask of its model vector. 乱数生成: 各クライアントは、モデルベクトルの独自のプライベートマスクを生成するシードとして機能する乱数を生成する。 0.78
We used the random function provided by the Python [30] os library for this primitive. このプリミティブにはpython [30] osライブラリが提供するランダム関数を使用しました。 0.82
Pseudo Random Number Generator: To ensure pairs of clients generate the same pairwise masks, a pseudo-random number generator is required so that the same mask is produced among clients when given identical seeds. Pseudo Random Number Generator: ペアのクライアントが同じペアのマスクを生成するために、同じシードを与えられたときに同じマスクがクライアント間で生成されるように擬似ランダムナンバージェネレータが必要である。 0.78
We used the standard random function in Python’s standard library for this primitive. このプリミティブのために、Pythonの標準ライブラリで標準ランダム関数を使用しました。 0.77
3.3 Federation Strategies In Flower, users can experiment with state-of-the-art algorithms and modify the behavior of their FL workload through the Strategy abstraction. 3.3 フェデレーション戦略 flowerでは、最先端のアルゴリズムを試し、戦略抽象化を通じてflワークロードの振る舞いを変更することができる。 0.64
A Strategy customizes core aspects of the FL process, e g client sampling and training parameters. 戦略はFLプロセスの中核的な側面、例えばクライアントのサンプリングとトレーニングパラメータをカスタマイズします。 0.76
Currently, Flower provides a comprehensive suite of FL Strategies, representing the wide range of FL algorithms used by the FL community, e g FedAvg [19] and FedProx [24]. Flowerは現在、FL Strategiesの包括的なスイートを提供しており、FLコミュニティで使われている幅広いFLアルゴリズム、例えばFedAvg[19]とFedProx[24]を表現しています。 0.63
In addition, users can extend or modify these built-in Strategies, or even implement their own. さらにユーザは、これらの組み込みストラテジーを拡張したり、修正したり、あるいは独自の実装もできる。 0.63
We address our Usability and Compatibility design goals by allowing Salvia to be compatible with this Strategy abstraction, i.e. users can choose Strategies easily and flexibly to be used in conjunction with Salvia. 我々は,Salviaがこのストラテジーの抽象化と互換性を持つようにすることで,ユーザビリティと互換性設計の目標に対処する。
訳抜け防止モード: ユーザビリティと互換性設計の目標に対処し salviaは、この戦略抽象化と互換性がある。 ユーザは、salviaと連携して、簡単に、柔軟に戦略を選択できる。
0.64
For a Strategy to be Salvia-compatible, the Strategy must also be a subclass of the SecAggStrategy abstract base class. 戦略がSalvia互換であるためには、戦略はSecAggStrategy抽象ベースクラスのサブクラスでなければならない。 0.76
This means that the user needs to provide a definition of get_sec_agg_param(), a function called by the FL Loop at the beginning of the round to obtain a dictionary of SecAgg(+)-related parameters, see subsection 3.4. つまり、ユーザは、ラウンドの初めにflループによって呼び出される関数であるget_sec_agg_param()の定義を提供し、secagg(+)関連パラメータの辞書を取得する必要がある。
訳抜け防止モード: つまり、ユーザはget_sec_agg_param ( ) の定義を提供する必要がある。 secagg(+)関連パラメータの辞書を取得するためにラウンドの初めにflループによって呼び出される関数 第3.4条参照。
0.79
After assigning default values for undefined parameters, the FL Loop verifies that all parameters are valid for the SecAgg(+) protocol and passes the dictionary to clients in the Setup Parameters Stage. 未定義パラメータのデフォルト値を割り当てた後、FL LoopはすべてのパラメータがSecAgg(+)プロトコルで有効であることを確認し、設定パラメータステージのクライアントに渡す。 0.75
Since the FL Loop automatically fills in default values for undefined parameters, the implementation of the get_sec_agg_param() could be as simple as returning an empty dictionary. FL Loopは未定義パラメータのデフォルト値を自動的に埋めるので、get_sec_agg_param()の実装は空の辞書を返すのと同じくらい単純である。 0.72
Like a normal Strategy, a Salvia-compatible one provides arbitrary logic and parameters to customize the client sampling and 通常の戦略と同様に、Salvia互換の戦略は、クライアントサンプリングをカスタマイズするための任意のロジックとパラメータを提供する。 0.60
client’s model fitting process. クライアントのモデルフィッティングプロセス。 0.62
However, as mentioned in subsection 3.1, it cannot tune the weighted aggregation process which occurs together with the Unmask Vectors Stage in the FL Loop, see subsection 3.5. しかし、第3.1節で述べたように、FLループのアンマスクベクトル段階と共に起こる重み付け集約過程をチューニングすることはできない。 0.59
K. H. Li et al K. H. Li et al 0.44
3.4 API Parameters To achieve our Flexibility goal, users can specify values of Salviarelated parameters for configuring the SA protocol via the dictionary returned by the get_sec_agg_param() function of their Strategy. 3.4 apiパラメータ 柔軟性の目標を達成するために、ユーザは戦略のget_sec_agg_param()関数によって返される辞書を介してsaプロトコルを構成するためのサルビア関連パラメータの値を指定できます。 0.64
These parameters are categorized into these classes: これらのパラメータは以下のクラスに分類される。 0.66
Minimum Number of Clients: To prevent the server from computing an aggregated vector of too few people (an aggregated vector from a single client in the extreme case), the user can specify the minimum number of clients required to be available by the end of the protocol. 最小クライアント数: サーバが少人数の集約ベクター(極端な場合は1つのクライアントから集約ベクター)を計算できないようにするため、ユーザはプロトコルの終わりまでに利用可能なクライアントの最小数を指定することができる。 0.79
If the number of available clients drops below this limit, the server and clients refuse to continue the protocol for security reasons. 利用可能なクライアント数がこの制限を満たさない場合、サーバとクライアントはセキュリティ上の理由からプロトコルの継続を拒否する。 0.78
The user can control this limit through one of two ways, by providing an exact value of this limit with the parameter min_num, or by specifying a fraction with respect to the number of clients sampled in min_frac. この制限をパラメータ min_num で正確な値を提供すること、あるいは min_frac でサンプリングされたクライアント数に対して分数を指定することで、ユーザはこの制限を2つの方法のいずれかで制御することができる。 0.79
If both are provided, the least restrictive of the two is used. 両方が与えられた場合、最小限の制限が用いられる。 0.67
Secret Sharing: The generation and reconstruction functions of the secret sharing cryptographic primitive is controlled by two parameters provided by the user. 秘密共有:秘密共有暗号プリミティブの生成と再構築機能は、ユーザが提供する2つのパラメータによって制御される。 0.82
share_num specifies the number of shares generated for each secret, and threshold specifies the minimum number of shares required to reconstruct the secret. share_numはシークレット毎に生成された株数を特定し、しきい値はシークレットを再構築するのに必要となる最小の株式数を指定する。 0.62
Incidentally, share_num also represents the value of 𝑘, i.e. the number of neighbors each client communicates with (including itself). ちなみに、share_num は k の値、すなわち各クライアントが(それ自身を含む)通信する隣人の数を表す。 0.77
Therefore, if the value of share_num is identical to the number of clients sampled, the protocol executed is SecAgg. したがって、 share_num の値がサンプリングされたクライアント数と同一であれば、実行されるプロトコルは SecAgg である。 0.73
Quantization: For masks generated by cryptographic primitives to work properly, client’s locally-trained model vector must be quantized beforehand. 量子化: 暗号化プリミティブによって生成されたマスクが適切に動作するためには、クライアントのローカルトレーニングされたモデルベクトルを事前に量子化する必要がある。
訳抜け防止モード: 量子化 : 暗号プリミティブが適切に動作するために生成するマスクについて クライアント ローカル - トレーニングされたモデルベクターは事前に定量化する必要がある。
0.62
This quantization step can be configured through the clipping_range and target_range parameters. この量子化ステップは、clipping_rangeおよびtarget_rangeパラメータを介して構成することができる。 0.60
For each real value of the trained model vector, clients first clip the value within the range [−clipping_range, clipping_range] and then map it to an integer between 0 and (target_range-1) uniformly. 訓練されたモデルベクトルの各実値に対して、クライアントはまず範囲[−clipping_range, clipping_range]内の値をクリップし、0と(target_range-1)の間の整数に一様にマッピングする。 0.75
Similarly, an inverse translation is performed on the server’s side by converting each integer element of the quantized aggregated vector to the float type, and mapping it to a real value in the range [−clipping_range, clipping_range] uniformly to produce the real-valued aggregated model vector. 同様に、量子化された集約ベクトルの各整数要素をフロート型に変換し、[−clipping_range, clipping_range]の範囲の実値に一様にマッピングすることで、サーバ側で逆変換を行い、実数値集約モデルベクトルを生成する。 0.83
Though information is lost after quantization which might affect the accuracy of the FL, this procedure is compulsory for the cryptographic primitives to work properly. FLの精度に影響を与える可能性のある量子化後に情報が失われるが、この手順は暗号プリミティブが適切に動作するように強制される。 0.58
A user can decrease the amount of information lost from quantization by providing a sufficiently large value of target_range. ユーザは、target_rangeの十分な大きな値を提供することにより、量子化により失われた情報量を減らすことができる。 0.63
Weighted Aggregation: max_weights_factor denotes the maximum weight that could be applied to a client’s model vector for weighted aggregation. 重み付けアグリゲーション: max_weights_factor は、重み付けアグリゲーションのためにクライアントのモデルベクトルに適用できる最大重みを表す。 0.80
The mod_range parameter specifies the modulus of the aggregation computation, and also the range of values elements in client’s vector masks can take, see subsection 3.5. mod_rangeパラメータは、集約計算のモジュラリティ、およびクライアントのベクタマスクの値要素の範囲を指定する。
訳抜け防止モード: mod_rangeパラメータは集約計算のモジュラーを指定する。 また、クライアントのベクターマスクの値要素の範囲も考慮できます。 第3.5条参照。
0.72
英語(論文から抽出)日本語訳スコア
Secure Aggregation for Federated Learning in Flower 花の連合学習のためのセキュアアグリゲーション 0.78
3.5 Weighted Aggregation Fundamentally, the SecAgg and SecAgg+ protocols only allow the server to calculate an unweighted average of all received model vectors. 3.5 重み付け集約 基本的に SecAgg と SecAgg+ プロトコルは、サーバが受信したすべてのモデルベクトルの非重み付き平均を計算するだけである。 0.65
However, we often want to calculate a weighted average of all vectors, e g a client who has trained on more data should have a larger influence on the final global model than one who has trained with fewer. しかし、多くの場合、全てのベクトルの重み付け平均を計算したい。例えば、より多くのデータで訓練されたクライアントは、より少ないトレーニングを受けたクライアントよりも最終的なグローバルモデルに大きな影響を与えるべきである。 0.73
This is not trivial because the server cannot perform arbitrary operations on clients’ masked vectors without modifying the masks themselves. サーバはマスク自体を変更することなく、クライアントのマスクベクターに対して任意の操作を行えないため、これは簡単ではない。 0.67
We address this issue by applying the technique described in the appendix of [25]: Salvia’s client-side logic automatically multiplies the client’s model vector by the amount of training data used, and appends that factor to the front of the vector, producing a modified vector to be masked. salviaのクライアントサイドロジックは、使用するトレーニングデータ量によって自動的にクライアントのモデルベクターを乗算し、その要素をベクターの前面に付加し、マスクする修正ベクターを生成する。
訳抜け防止モード: この問題に対処するために、[25 ]: Salvia のクライアント - サイドロジックはクライアントのモデルベクターを、使用するトレーニングデータの量で自動的に乗算します。 ベクトルの前面にその要素を付加します 修正ベクターを生成して 隠蔽します
0.69
On the server’s side, at the end of the Unmask Vectors Stage, the server pops the first element of the vector, representing the sum of all factors, and divides the rest of the vector by that value to obtain a weighted average of all input vectors. サーバ側では、Unmask Vectors Stageの最後に、サーバはすべての要素の和を表すベクトルの最初の要素をポップアップさせ、その値でベクトルの残りの要素を分割し、全ての入力ベクトルの重み付け平均を得る。 0.75
The max_weights_factor prevents clients from multiplying their vector by too large a factor that risks ‘overflowing’ the field and affecting the aggregation result. max_weights_factorは、クライアントがフィールドを‘オーバーフロー’し、アグリゲーション結果に影響を与えるリスクを負う要因が多すぎることで、ベクタの乗算を妨げます。
訳抜け防止モード: max_weights_factorはクライアントがベクトルを乗算するのを防ぐ。 フィールドを‘オーバーフロー’し、アグリゲーションの結果に影響を与えるリスク。
0.73
If a client trains its model by an amount of data that exceeds max_weights_factor, the vector is only multiplied by max_weights_factor instead of the actual amount of data trained. クライアントがmax_weights_factorを超えるデータ量でモデルをトレーニングした場合、ベクタはトレーニングされた実際のデータ量ではなくmax_weights_factorでのみ乗算される。 0.72
In addition, after all Salvia-related parameters are defined, the FL Loop checks that mod_range is at least as large as (max_weights_factor × target_range × number of sampled clients ) so that it is impossible for the aggregated vector to exceed the chosen modulus field. さらに、全てのサルビア関連パラメータが定義された後、flループは mod_range が少なくとも (max_weights_factor × target_range × number of sampled client ) と同じ大きさであることを確認し、集計ベクトルが選択されたモジュラス体を超えることは不可能である。 0.70
An interesting side-effect of this design choice is that we can execute unweighted aggregation by setting max_weights_factor to 1, as each client automatically multiplies their vector by the same factor of value 1. この設計選択の興味深い副作用は、max_weights_factorを1に設定することで、各クライアントが自動的にベクタを1のと同じ係数で乗算することで、非重み付けアグリゲーションを実行できることである。 0.61
4 EVALUATION To verify that Salvia’s behavior matches our expectations in theoretical complexity, we evaluate the changes of Salvia’s computation and communication overhead with the number of clients or the model vector size. 4 理論上の複雑性の期待値とサルビアの振る舞いが一致していることを確認するために,サルビアの計算と通信オーバーヘッドの変化をクライアント数やモデルベクトルサイズで評価する。 0.71
We ran our FL simulations on a Linux workstation with an Intel Xeon E-2136 CPU (3.30GHz), with 256 GB of RAM. FLシミュレーションは、Intel Xeon E-2136 CPU(3.30GHz)と256GBのRAMを搭載したLinuxワークステーションで実行しました。 0.77
In our simulations, all entries of our local vectors were of size 24 bits. 我々のシミュレーションでは、局所ベクトルの全てのエントリはサイズが24ビットであった。 0.77
We ignore communication latency in our simulations. シミュレーションでは通信遅延を無視します。 0.69
Moreover, all dropouts simulated happened after stage 2, i.e. Share Keys Stage. さらに、シミュレーションされたすべてのドロップアウトはステージ2以降、すなわち共有キーステージ後に発生した。 0.64
This is because this would impose the most significant overhead as the server not only needs to regenerate their secret, but also compute their pairwise masks generated between their neighbors. これは、サーバが秘密を再生成するだけでなく、隣人間で生成されたペアワイズマスクを計算する必要があるため、これが最も重要なオーバーヘッドとなるためである。 0.66
For our simulations, share_num and threshold were set to 51 and 26, respectively. シミュレーションでは,Share_numとしきい値はそれぞれ51と26に設定した。 0.76
These parameters were chosen to reference SecAgg+’s proven correctness and security guarantees, where we can tolerate up to 5% dropouts and 5% corrupted clients with correctness holding with probability 1 − 2−20 and security holding with probability 1 − 2−40. これらのパラメータはsecagg+の証明された正確性とセキュリティ保証を参照するために選択され、最大5%のドロップアウトと5%の破損したクライアントを確率1 − 2−20で保持し、確率1 − 2−40でセキュリティホールディングすることができる。 0.73
Though not shown in our following simulations, users can choose larger values for share_num and threshold to tolerate higher percentages of dropouts and corrupted clients. 以下のシミュレーションでは示されていないが、ユーザはShare_numとしきい値のより大きな値を選択して、ドロップアウトやクライアントの破損を許容することができる。 0.60
We observe that all our experiment results are consistent with the theoretical computation and communication overhead complexities 実験結果は理論計算と通信オーバーヘッドの複雑さと一致していると観察する。 0.78
for SecAgg(+) from Table 1, thus achieving our Efficiency design goal. 表1からのSecAgg(+)の場合、効率性の設計目標を達成する。 0.76
Varying the number of clients: We measured the CPU running times of the server and a client, and the total data transfer per client, as the number of sampled clients increases. クライアント数の変更: サンプルクライアント数の増加に伴い、サーバとクライアントのcpu実行時間とクライアントごとのデータ転送総数を測定した。
訳抜け防止モード: クライアントの数を変えて :サーバとクライアントのcpu実行時間を測定した。 そして、サンプリングされたクライアントの数が増えるにつれて、クライアントごとのデータ転送の総数も増加する。
0.77
Fixing the model vector size to 100k entries, we plotted the results measured through sampling 100 clients to sampling up to 500 clients in Figure 4a, 4b, and 4c. モデルベクトルサイズを100kエントリに固定し、100クライアントをサンプリングして、図4a、図4b、図4cの500クライアントまでをサンプリングする結果をプロットした。 0.74
We also measured how the performance would change after client dropouts by repeating the experiments with a 5% dropouts. また、5%のドロップアウトで実験を繰り返して、クライアントのドロップアウト後にパフォーマンスがどのように変化するかを測定した。 0.59
We observe that the server’s running time increases linearly with the number of sampled clients, which matches the expected computation cost’s complexity as the server repeats the same operations for each available client, e g reconstructing secrets and generating masks. サーバが利用可能な各クライアントに対して同じ操作を繰り返し、例えばシークレットの再構築やマスクの生成を行うときの計算コストの複雑さに匹敵する、サンプリングされたクライアントの数でサーバの実行時間が線形に増加するのを観察する。 0.81
The server’s running time increases whenever there are 5% clients dropping out, as the server has to perform extra computations to calculate all 𝑘 pairwise masks for each client dropped out in the Unmask Vectors Stage. 5%のクライアントが脱落するたびにサーバの実行時間が増加する。サーバは、unmaskベクターのステージにドロップアウトされた各クライアントのk対のマスクを計算するために余分な計算を行う必要がある。 0.82
On the other hand, the client’s running time remains constant with the number of sampled clients regardless whether there are dropouts. 一方、クライアントの実行時間は、ドロップアウトの有無に関わらず、サンプリングされたクライアントの数に一定です。 0.68
This is because each client only communicates with 𝑘 other neighbors and the actual number of sampled clients does not affect the client-side logic. これは、各クライアントが他の隣人とのみ通信し、実際のクライアントの数がクライアント側のロジックに影響しないためです。 0.79
Lastly, we note that the total data transferred per client remains unchanged as each client is only communicating with exactly 𝑘 neighbors regardless of the total number of clients and dropouts. 最後に、各クライアントは、クライアントの総数とドロップアウトに関わらず、正確にk個の隣人とのみ通信しているため、クライアント単位で転送される総データ量は変わらないことに注意する。 0.70
Varying vector size: We measured the CPU running times of the server and a client, and the total data transfer per client, as the model vector size increases. ベクトルサイズの変化: モデルベクトルサイズが増加するにつれて、サーバとクライアントのcpu実行時間とクライアントごとのデータ転送の総量を測定した。 0.82
Fixing the number of sampled clients to 100, we plotted the results measured through aggregating a vector of size 100k entries to aggregating one of size 500k entries in Figure 4d, 4e, and 4f. サンプルクライアント数を100に固定し,100kサイズのベクトルを集約して,図4d,4e,4fの500kサイズのエントリの1つを集約し,その結果をプロットした。 0.81
Like before, we repeated our experiments with a 5% dropouts. 前と同じように、5%のドロップアウトで実験を繰り返しました。 0.69
We observe that both the server’s and clients’ running times increase linearly with the model vector size. サーバとクライアントの両方の実行時間がモデルベクトルサイズとともに線形に増加するのを観察する。 0.81
This matches both expected computation cost’s complexities because all computation costs involving model vectors are linear to the vectors’ sizes, e g generating masks and unmasking vectors. これは、モデルベクターを含む全ての計算コストが、例えばマスクやアンマスクベクターを生成するようなベクターのサイズに線形であるため、予測計算コストの複雑さと一致する。 0.71
In addition, like before, the server’s running time increases and the client’s running time remains unchanged when there are 5% clients dropping out. さらに、以前と同じように、サーバの実行時間が増加し、5%のクライアントがダウンしても、クライアントの実行時間は変わらない。 0.69
We also observe that the total data transferred per client increases linearly with the model vector size as expected, because each client sends the vector to the server for aggregation. また、各クライアントが集約のためにベクトルを送信するため、クライアント毎に転送される総データは、期待どおりモデルベクトルサイズとともに線形に増加することを観察する。 0.76
5 LIMITATIONS AND FUTURE WORK We recognize a few limitations of our current work and we point out future work to address these issues. 5 限界と今後の課題 私たちは現在の作業のいくつかの制限を認識し、これらの問題に対処するための今後の作業について指摘します。
訳抜け防止モード: 5 限界と今後の課題 現在の仕事のいくつかの限界を認識します これらの問題に対処するための 今後の取り組みを指摘します
0.69
At this moment, the secret sharing scheme function is one of the most significant bottlenecks on Salvia’s computation cost. 現時点では、秘密共有スキーム関数は、Salviaの計算コストにおける最も重要なボトルネックの1つである。 0.68
In the future, we wish to provide our own implementation of the secret sharing mechanism that is more efficient while not sacrificing security guarantees. 将来的には,セキュリティ保証を犠牲にすることなく,より効率的な秘密共有機構を独自に実装したいと思っています。 0.70
In addition, our support for SA on Flower is only limited to Python users. さらに、FlowerでのSAサポートはPythonユーザのみに限られています。 0.70
We aim to rewrite cryptographic functions that are specific to the Python library, such that it can be used in FL scenarios where clients are running under different programming languages on their backends, e g C++. 我々は、クライアントがバックエンドで異なるプログラミング言語、例えばC++で実行されているFLシナリオで使用できるように、Pythonライブラリ特有の暗号化関数を書き換えることを目指している。 0.80
英語(論文から抽出)日本語訳スコア
0% dropout 5% dropout 0%ドロップアウト 5%ドロップアウト 0.69
1,000 800 600 1,000 800 600 0.38
400 200 ) s ( 400 200 s)。 0.51
e m i t i エム i t です 私は 0.53
g n n n u r U P C g n n u r u p c である。 0.84
0% dropout 5% dropout 0%ドロップアウト 5%ドロップアウト 0.69
100 80 60 40 100 80 60 40 0.43
20 ) s ( e m i t 20 s)。 エム i t です 0.54
i g n n n u r U P C 私は g n n u r u p c である。 0.69
0% dropout 5% dropout 0%ドロップアウト 5%ドロップアウト 0.69
20 15 10 5 20 15 10 5 0.43
) B M ( d e r r e f s n a r t )BM (d e r r e f s n a r t) 0.33
a t a D 0 0 a t a d 0 0 0.41
100 200 300 100 200 300 0.43
400 Number of sampled clients 400 サンプルクライアントの数 0.61
500 0 0 100 500 0 0 100 0.43
200 300 400 200 300 400 0.43
Number of sampled clients サンプルクライアントの数 0.80
500 0 0 100 500 0 0 100 0.43
200 300 400 200 300 400 0.43
Number of sampled clients サンプルクライアントの数 0.80
K. H. Li et al K. H. Li et al 0.44
500 (a) Running time of server with increasing 500 (a)増加するサーバの実行時間 0.61
number of clients (b) Running time of client with increasing 顧客数 (b)増加によるクライアントの稼働時間 0.70
number of clients (c) Total data transfer per client with 顧客数 (c)クライアント毎のデータ転送総数 0.66
increasing number of clients 0% dropout 5% dropout 顧客の増加は 0%ドロップアウト 5%ドロップアウト 0.70
300 250 200 300 250 200 0.42
150 100 50 150 100 50 0.43
) s ( e m i t s)。 エム i t です 0.57
i g n n n u r U P C 私は g n n u r u p c である。 0.69
0% dropout 5% dropout 0%ドロップアウト 5%ドロップアウト 0.69
300 250 200 300 250 200 0.42
150 100 50 150 100 50 0.43
) s ( e m i t s)。 エム i t です 0.57
i g n n n u r U P C 私は g n n u r u p c である。 0.69
0% dropout 5% dropout 0%ドロップアウト 5%ドロップアウト 0.69
20 15 10 5 20 15 10 5 0.43
) B M ( d e r r e f s n a r t )BM (d e r r e f s n a r t) 0.33
a t a D 0 0 a t a d 0 0 0.41
1 2 4 Model vector size 1 2 4 モデルベクトルサイズ 0.62
3 5 ·105 0 3 5 ·105 0 0.42
0 1 2 4 Model vector size 0 1 2 4 モデルベクトルサイズ 0.56
3 5 ·105 (d) Running time of server with increasing 3 5 ·105 (d)増大するサーバの実行時間 0.51
vector size (e) Running time of client with increasing ベクトルサイズ (e)増加に伴うクライアントの実行時間 0.84
vector size 0 0 ベクトルサイズ 0 0 0.56
1 2 4 Model vector size 1 2 4 モデルベクトルサイズ 0.62
3 5 ·105 (f) Total data transfer per client with 3 5 ·105 (f)クライアント毎のデータ転送の総量 0.52
increasing vector size ベクトルサイズの増加 0.87
Figure 4: Experiment Results Lastly, we would want to allow users to customize more aspects of their FL experiments. 図4:実験結果 最後に、fl実験のより多くの側面をユーザがカスタマイズできるようにしたいと思います。
訳抜け防止モード: 図4:実験結果 最後に私たちは ユーザーがfl実験のより多くの側面をカスタマイズできるようにする。
0.75
For example, Salvia fixes clients’ weights factor to be the amount of training data used. 例えば、Salviaはクライアントの重み付けを、使用するトレーニングデータの量に修正する。 0.66
In addition, users cannot customize the quantization step. さらに、ユーザーは量子化のステップをカスタマイズできない。 0.80
We hope to extend our implementation to allow users to provide arbitrary logic specifying how clients compute the weights factor and how quantization is performed via the Salvia-compatible Strategy. 私たちは、クライアントが重み係数を計算する方法と、salvia互換の戦略によって量子化がどのように行われるかを指定する任意のロジックを提供するために、実装を拡張したいと考えています。 0.45
6 CONCLUSION We presented Salvia, an open-source implementation of SA based on the SecAgg(+) protocols in the FL framework Flower. 6 ConCLUSION 私たちは、FLフレームワークFlowerのSecAgg(+)プロトコルに基づいたSAのオープンソース実装であるSalviaを紹介しました。 0.65
Leveraging Flower’s ML framework-agnostic property, Salvia is compatible with a diverse range of ML frameworks. FlowerのMLフレームワークに依存しないプロパティを活用することで、SalviaはさまざまなMLフレームワークと互換性がある。 0.55
We explained how Salvia’s API provides a set of flexible and easily-configurable parameters and how it works together with Flower’s Strategy abstraction. SalviaのAPIは、フレキシブルで簡単に設定可能なパラメータセットを提供し、FlowerのStrategyAbstractとどのように連携するかを説明した。 0.75
We showed that Salvia can handle client dropouts, and its performance is consistent with SecAgg(+)’s theoretical computation and communication complexities. 我々はSalviaがクライアントのドロップアウトを処理できることを示し、その性能はSecAgg(+)の理論的計算と通信の複雑さと一致することを示した。 0.66
Future work includes improving the efficiency of the secret-sharing functions, extending Salvia for clients running in other programming languages, and providing support for configuring the weights factor via the Strategy abstraction. 今後の作業には、シークレット共有機能の効率の改善、他のプログラミング言語で動作するクライアント向けのSalviaの拡張、ストラテジー抽象化による重み付け係数の設定のサポートなどが含まれる。 0.61
ACKNOWLEDGMENTS This work was supported by the UK’s Engineering and Physical Sciences Research Council (EPSRC) with grant EP/S001530/1 (the MOA project) and the European Research Council (ERC) via the ACKNOWLEDGMENTS この研究は、EP/S001530/1(MOAプロジェクト)と欧州研究評議会(ERC)を通じて、英国の工学・物理学研究評議会(EPSRC)によって支援された。 0.79
REDIAL project (Grant Agreement ID: 805194). REDIALプロジェクト(Grant Agreement ID: 805194)。 0.61
We would also like to thank Prof. Mycroft and the anonymous reviewers for helpful discussions and suggestions. また、mycroft教授と匿名のレビュワーに有用な議論と提案に感謝します。
訳抜け防止モード: 私たちも Mycroft教授と匿名のレビュアーに、有益な議論と提案を感謝する。
0.72
REFERENCES [1] Martín Abadi, Ashish Agarwal, Paul Barham, Eugene Brevdo, Zhifeng Chen, Craig Citro, Greg S. Corrado, Andy Davis, Jeffrey Dean, Matthieu Devin, Sanjay Ghemawat, Ian Goodfellow, Andrew Harp, Geoffrey Irving, Michael Isard, Yangqing Jia, Rafal Jozefowicz, Lukasz Kaiser, Manjunath Kudlur, Josh Levenberg, Dandelion Mané, Rajat Monga, Sherry Moore, Derek Murray, Chris Olah, Mike Schuster, Jonathon Shlens, Benoit Steiner, Ilya Sutskever, Kunal Talwar, Paul Tucker, Vincent Vanhoucke, Vijay Vasudevan, Fernanda Viégas, Oriol Vinyals, Pete Warden, Martin Wattenberg, Martin Wicke, Yuan Yu, and Xiaoqiang Zheng. REFERENCES [1] Martín Abadi, Ashish Agarwal, Paul Barham, Eugene Brevdo, Zhifeng Chen, Craig Citro, Greg S. Corrado, Andy Davis, Jeffrey Dean, Matthieu Devin, Sanjay Ghemawat, Ian Goodfellow, Andrew Harp, Geoffrey Irving, Michael Isard, Yangqing Jia, Rafal Jozefowicz, Lukasz Kaiser, Manjunath Kudlur, Josh Levenberg, Dandelion Mané, Rajat Monga, Sherry Moore, Derek Murray, Chris Olah, Mike Schuster, Jonathon Shlens, Benoit Steiner, Ilya Sutskever, Kunal Talwar, Paul Tucker, Vincent Vanhoucke, Vijay Vasudevan, Fernanda Viégas, Oriol Vinyals, Pete Warden, Martin Wattenberg, Martin Wicke, Yuan Yu, and Xiaoqiang Zheng.
訳抜け防止モード: 参照 [1 ] martín abadi, ashish agarwal, paul barham, eugene brevdo, zhifeng chen, craig citro, greg s. corrado, アンディ・デイヴィス、ジェフリー・ディーン、マチュー・デビン、サンジェイ・ゲマワ、イアン・グッドフェロー。 andrew harp, geoffrey irving, michael isard, yangqing jia rafal jozefowicz氏、lukasz kaiser氏、manjunath kudlur氏、josh levenberg氏。 dandelion mané氏、rajat monga氏、sherry moore氏、derek murray氏。 chris olah, mike schuster, jonathon shlens, benoit steiner, ilya sutskever。 kunal talwar、paul tucker、vincent vanhoucke、vijay vasudevan。 fernanda viégas, oriol vinyals, pete warden, martin wattenberg martin wicke氏、yu氏、xiaoqiang zhen氏。
0.71
2015. TensorFlow: Large-Scale Machine Learning on Heterogeneous Systems. 2015. TensorFlow: 異種システムによる大規模機械学習。 0.64
https://www.tensorfl ow.org/ Software available from tensorflow.org. https://www.tensorfl ow.org/ ソフトウェアはtensorflow.orgから入手できる。 0.40
[2] Martin Abadi, Andy Chu, Ian Goodfellow, H. Brendan McMahan, Ilya Mironov, Kunal Talwar, and Li Zhang. [2] Martin Abadi, Andy Chu, Ian Goodfellow, H. Brendan McMahan, Ilya Mironov, Kunal Talwar, Li Zhang
訳抜け防止モード: 2 ] マーティン・アバディ アンディ・チュ イアン・グッドフェルロー h. brendan mcmahan, ilya mironov, kunal talwar, li zhang。
0.51
2016. Deep Learning with Differential Privacy. 2016. 差分プライバシーによるディープラーニング。 0.50
Proceedings of the 2016 ACM SIGSAC Conference on Computer and Communications Security (Oct 2016). 2016 ACM SIGSAC Conference on Computer and Communications Security (Oct 2016) に参加。 0.38
https://doi.org/10.1 145/2976749.2978318 [3] Python Cryptographic Authority. https://doi.org/10.1 145/2976749.2978318[3] Python Cryptographic Authority 0.28
2021. Cryptography (version 3.4.8). 2021. 暗号(バージョン3.4.8)。 0.47
https: //github.com/pyca/cr yptography https: //github.com/pyca/cr yptography 0.20
[4] James Henry Bell, Kallista A. Bonawitz, Adrià Gascón, Tancrède Lepoint, and Mariana Raykova. 4]James Henry Bell, Kallista A. Bonawitz, Adrià Gascón, Tancrède Lepoint, Mariana Raykova 0.36
2020. Secure Single-Server Aggregation with (Poly)Logarithmic Overhead. 2020. Poly)Logarithmic Overheadによるセキュアなシングルサーバアグリゲーション。 0.60
In Proceedings of the 2020 ACM SIGSAC Conference on Computer and Communications Security (Virtual Event, USA) (CCS ’20). 2020年、ACM SIGSAC Conference on Computer and Communications Security (Virtual Event, USA) (CCS'20) に参加。 0.73
Association for Computing Machinery, New York, NY, USA, 1253–1269. アソシエーション・フォー・コンピューティング・マシーンズ (association for computing machinery, new york, ny, usa, 1253–1269)。 0.51
https://doi.org/10.1 145/3372297. https://doi.org/10.1 145/3372297。 0.19
3417885 [5] Daniel J. Beutel, Taner Topal, Akhil Mathur, Xinchi Qiu, Titouan Parcollet, and Nicholas D. Lane. 3417885 5]Daniel J. Beutel, Taner Topal, Akhil Mathur, Xinchi Qiu, Titouan Parcollet, Nicholas D. Lane
訳抜け防止モード: 3417885 5]daniel j. beutel, taner topal, akhil mathur, シンチ・キウ、ティトゥアン・パルコレット、ニコラス・d・レーン。
0.45
2020. Flower: A Friendly Federated Learning Research Framework. 2020. Flower: フレンドリーなフェデレートされた学習研究フレームワーク。 0.58
CoRR abs/2007.14390 (2020). corr abs/2007.14390 (2020)。 0.60
arXiv:2007.14390 https://arxiv.org/ab s/2007. arXiv:2007.14390 https://arxiv.org/ab s/2007 0.20
14390 14390 0.43
英語(論文から抽出)日本語訳スコア
612–613. https://doi.org/10.1 145/359168.359176 612–613. https://doi.org/10.1 145/359168.359176 0.25
[25] Aaron Segal, Antonio Marcedone, Benjamin Kreuter, Daniel Ramage, H. Brendan McMahan, Karn Seth, K. A. Bonawitz, Sarvar Patel, and Vladimir Ivanov. 25]aaron segal、antonio marcedone、benjamin kreuter、daniel ramage、h. brendan mcmahan、karn seth、k. a. bonawitz、sarvar patel、vladimir ivanov。 0.64
2017. Practical Secure Aggregation for Privacy-Preserving Machine Learning. 2017. プライバシ保護機械学習のための実用的セキュアアグリゲーション 0.53
In CCS. https://eprint.iacr. org/2017/281.pdf [26] Adi Shamir. CCS所属。 Adi Shamir (英語) Adi Shamir (英語) 0.58
1979. How to Share a Secret. 1979. 秘密を共有する方法。 0.57
Commun. ACM 22, 11 (Nov. 1979), [27] Reza Shokri and Vitaly Shmatikov. 共産。 ACM 22 11 (1979年2月11日). [27] Reza Shokri and Vitaly Shmatikov 0.58
2015. Privacy-preserving deep learning. 2015. プライバシー保護の深層学習。 0.53
In 2015 53rd Annual Allerton Conference on Communication, Control, and Computing (Allerton). 2015年、第53回allerton conference on communication, control, and computing (allerton) が開催された。 0.63
909–910. https://doi.org/10.1 109/ALLERTON.2015.74 47103 [28] Reza Shokri, Marco Stronati, Congzheng Song, and Vitaly Shmatikov. 909–910. https://doi.org/10.1 109/ALLERTON.2015.74 47103 [28] Reza Shokri, Marco Stronati, Congzheng Song, Vitaly Shmatikov 0.35
2017. Membership Inference Attacks Against Machine Learning Models. 2017. 機械学習モデルに対するメンバーシップ推論攻撃。 0.61
In 2017 IEEE Symposium on Security and Privacy (SP). 2017年、IEEE Symposium on Security and Privacy (SP) に参加。 0.76
3–18. https://doi.org/10.1 109/SP.2017.41 [29] Jinhyun So, Basak Guler, and Amir Salman Avestimehr. 3–18. https://doi.org/10.1 109/SP.2017.41[29] Jinhyun So, Basak Guler, Amir Salman Avestimehr 0.34
2020. Turbo-Aggregate: Breaking the Quadratic Aggregation Barrier in Secure Federated Learning. 2020. Turbo-Aggregate: 安全なフェデレーション学習における二次集約バリアの破壊 0.55
CoRR abs/2002.04156 (2020). en:corr abs/2002.04156 (2020)。 0.44
arXiv:2002.04156 https://arxiv.org/ab s/2002.04156 [30] Guido Van Rossum and Fred L Drake Jr. 1995. arXiv:2002.04156 https://arxiv.org/ab s/2002.04156 [30] Guido Van Rossum and Fred L Drake Jr. 1995 0.33
Python reference manual. Python参照マニュアル。 0.74
Centrum [31] Andrew C. Yao. Centrum [31] Andrew C. Yao 0.41
1982. Protocols for secure computations. 1982. セキュアな計算のためのプロトコル。 0.51
In 23rd Annual https: 第23回年次 https: 0.80
Symposium on Foundations of Computer Science (sfcs 1982). The Symposium on Foundations of Computer Science (sfcs 1982) に参加。 0.86
160–164. //doi.org/10.1109/SF CS.1982.38 160–164. //doi.org/10.1109/SF CS.1982.38 0.25
voor Wiskunde en Informatica Amsterdam. アムステルダム・インフォマティカ(Informatica Amsterdam)の略称。 0.33
Secure Aggregation for Federated Learning in Flower 花の連合学習のためのセキュアアグリゲーション 0.78
[6] Kallista A. Bonawitz, Vladimir Ivanov, Ben Kreuter, Antonio Marcedone, H. Brendan McMahan, Sarvar Patel, Daniel Ramage, Aaron Segal, and Karn Seth. 6]Kallista A. Bonawitz, Vladimir Ivanov, Ben Kreuter, Antonio Marcedone, H. Brendan McMahan, Sarvar Patel, Daniel Ramage, Aaron Segal, Karn Seth
訳抜け防止モード: [6 ]Kallista A. Bonawitz, Vladimir Ivanov, Ben Kreuter Antonio Marcedone, H. Brendan McMahan, Sarvar Patel, Daniel Ramage アーロン・セガル(Aaron Segal)とカーン・セト(Karn Seth)。
0.83
2016. Practical Secure Aggregation for Federated Learning on User-Held Data. 2016. ユーザ中心データに基づくフェデレーション学習のための実践的セキュアアグリゲーション 0.54
CoRR abs/1611.04482 (2016). en:corr abs/1611.04482 (2016)。 0.49
arXiv:1611.04482 http://arxiv.org/abs /1611.04482 [7] Elette Boyle, Kai-Min Chung, and Rafael Pass. arXiv:1611.04482 http://arxiv.org/abs /1611.04482 [7] Elette Boyle, Kai-Min Chung, Rafael Pass 0.31
2015. Large-Scale Secure Computation: Multi-party Computation for (Parallel) RAM Programs. 2015. 大規模セキュア計算:マルチパーティによる(並列)RAMプログラムの計算。 0.59
In CRYPTO. Springer, 742–762. CRYPTO所属。 スプリンガー、742-762。 0.60
https://doi.org/10.1 007/978-3-662-48000- 7_36 [8] Chia che Tsai, Donald E. Porter, and Mona Vij. 8] Chia che Tsai, Donald E. Porter, Mona Vij 0.27
2017. Graphene-SGX: A Practical Library OS for Unmodified Applications on SGX. 2017. Graphene-SGX: SGX上の未修正アプリケーションのための実用的なライブラリOS。 0.55
In 2017 USENIX Annual Technical Conference (USENIX ATC 17). 2017年、USENIX Annual Technical Conference (USENIX ATC 17)に参加。 0.87
USENIX Association, Santa Clara, CA, 645–658. USENIX Association, Santa Clara, CA, 645–658。 0.47
https://www.usenix.o rg/conference/atc17/ technical-sessions/p resentation/tsai [9] Beongjun Choi, Jy-yong Sohn, Dong-Jun Han, and Jaekyun Moon. 9] Beongjun Choi, Jy-yong Sohn, Dong-Jun Han, Jaekyun Moon。 0.33
2020. Communication-Comput ation Efficient Secure Aggregation for Federated Learning. 2020. 連合学習のための通信計算効率のよいセキュアアグリゲーション 0.54
CoRR abs/2012.05433 (2020). corr abs/2012.05433 (2020)。 0.62
arXiv:2012.05433 https://arxiv.org/ab s/2012. arXiv:2012.05433 https://arxiv.org/ab s/2012 0.20
05433 [10] Ivan Damgård, Valerio Pastro, Nigel Smart, and Sarah Zakarias. 05433[10] Ivan Damgård, Valerio Pastro, Nigel Smart, Sarah Zakarias。 0.38
2011. Multiparty Computation from Somewhat Homomorphic Encryption. 2011. 準同型暗号化によるマルチパーティ計算 0.56
IACR Cryptology ePrint Archive 2011 (01 2011), 535. IACR Cryptology ePrint Archive 2011 (01 2011) 535。 0.73
https://doi.org/10.1 007/978-3-642-32009- 5_38 [11] Helder Eijs. 10.1007/978-3-642-32 009-5_38[11] Helder Eijs 0.18
2020. PyCryptodome (version 3.9.9). 2020. PyCryptodome (バージョン3.9.9)。 0.53
https://github.com/L egrandin/ pycryptodome https://github.com/L egrandin/ pycryptodome 0.25
[13] Intel Corporation 2007. [13]Intel Corporation 2007 0.34
[12] Matt Fredrikson, Somesh Jha, and Thomas Ristenpart. Matt Fredrikson氏、Somesh Jha氏、Thomas Ristenpart氏。 0.31
2015. Model Inversion Attacks That Exploit Confidence Information and Basic Countermeasures. 2015. 信頼情報と基本的な対策を利用するモデル反転攻撃。 0.58
In Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security (Denver, Colorado, USA) (CCS ’15). 第22回ACM SIGSAC Conference on Computer and Communications Security (Denver, Colorado, USA) に参加。
訳抜け防止モード: 第22回ACM SIGSAC Conference on Computer and Communications Security(デンバー)に参加して コロラド州) (CCS ' 15 )。
0.76
Association for Computing Machinery, New York, NY, USA, 1322–1333. Association for Computing Machinery, New York, NY, USA, 1322–1333。 0.46
https://doi.org/10.1 145/2810103.2813677 Intel 64 and IA-32 Architectures Software Developer’s Manual - Volume 3B. Intel 64とIA-32 Architectures Software Developer's Manual - Volume 3B 0.30
Intel Corporation. [14] Swanand Kadhe, Nived Rajaraman, Onur Ozan Koyluoglu, and Kannan Ramchandran. インテル社。 [14]スワナン・カディー、ニヴェド・ラジャラマン、オヌル・オザン・コユルオグル、カンナン・ラムチャンダン。 0.46
2020. FastSecAgg: Scalable Secure Aggregation for Privacy-Preserving Federated Learning. 2020. FastSecAgg: プライバシ保護フェデレーション学習のためのスケーラブルなセキュアアグリゲーション。 0.55
CoRR abs/2009.11248 (2020). en:corr abs/2009.11248 (2020)。 0.43
arXiv:2009.11248 https: //arxiv.org/abs/2009 .11248 [15] B. Knott, S. Venkataraman, A.Y. Hannun, S. Sengupta, M. Ibrahim, and L.J.P. van der Maaten. arXiv:2009.11248 https: //arxiv.org/abs/2009 .11248 [15] B. Knott, S. Venkataraman, A.Y. Hannun, S. Sengupta, M. Ibrahim, L.J.P. van der Maaten 0.33
2020. CrypTen: Secure Multi-Party Computation Meets Machine Learning. 2020. CrypTen: セキュアなマルチパーティ計算がマシンラーニングと出会う。 0.52
In Proceedings of the NeurIPS Workshop on Privacy-Preserving Machine Learning. NeurIPS Workshop on Privacy-Preserving Machine Learning に参加して 0.78
[16] Paul Kocher, Jann Horn, Anders Fogh, , Daniel Genkin, Daniel Gruss, Werner Haas, Mike Hamburg, Moritz Lipp, Stefan Mangard, Thomas Prescher, Michael Schwarz, and Yuval Yarom. Paul Kocher, Jann Horn, Anders Fogh, , Daniel Genkin, Daniel Gruss, Werner Haas, Mike Hamburg, Moritz Lipp, Stefan Mangard, Thomas Prescher, Michael Schwarz, Yuval Yarom。 0.36
2019. Spectre Attacks: Exploiting Speculative Execution. 2019. spectre attack: 投機的実行を悪用する。 0.55
In 40th IEEE Symposium on Security and Privacy (S&P’19). 第40回IEEE Symposium on Security and Privacy (S&P’19)に参加。 0.79
tree/secagg_experime ntal. tree/secagg_experime ntal。 0.48
[17] Kwing Hei Li. [17]Kwing Hei Li. 0.41
2021. SecAgg Experimental. 2021. secagg実験機。 0.53
https://github.com/h ei411/flower/ https://github.com/h ei411/flower/ 0.17
[18] Moritz Lipp, Michael Schwarz, Daniel Gruss, Thomas Prescher, Werner Haas, Anders Fogh, Jann Horn, Stefan Mangard, Paul Kocher, Daniel Genkin, Yuval Yarom, and Mike Hamburg. 18] Moritz Lipp, Michael Schwarz, Daniel Gruss, Thomas Prescher, Werner Haas, Anders Fogh, Jann Horn, Stefan Mangard, Paul Kocher, Daniel Genkin, Yuval Yarom, Mike Hamburg。
訳抜け防止モード: 18]moritz lipp、michael schwarz、daniel gruss。 トーマス・プレスチャー ヴェルナー・ハース アンダース・フォッグ ヤン・ホーン ステファン・マンガード ポール・コーチャー ダニエル・ゲンキン ユーヴァル・ヤロム マイク・ハンブルクです
0.44
2018. Meltdown: Reading Kernel Memory from User Space. 2018. Meltdown: ユーザ空間からカーネルメモリを読み込む。 0.59
In 27th USENIX Security Symposium (USENIX Security 18). 第27回USENIXセキュリティシンポジウム(USENIX Security 18)に参加。 0.84
[19] Brendan McMahan, Eider Moore, Daniel Ramage, Seth Hampson, and Blaise Aguera y Arcas. 19] ブレンダン・マクマハン、アイダー・ムーア、ダニエル・ラメージ、セス・ハムソン、ブレイズ・アゲラ・イ・アルカス 0.50
2017. Communication-Effici ent Learning of Deep Networks from Decentralized Data. 2017. 分散データからのディープネットワークのコミュニケーション効率向上学習 0.60
In Proceedings of the 20th International Conference on Artificial Intelligence and Statistics (Proceedings of Machine Learning Research, Vol. 54), Aarti Singh and Jerry Zhu (Eds.). 第20回人工知能と統計に関する国際会議(proceeds of machine learning research, vol. 54)の議事録では、aarti singhとjerry zhu (eds.)が取り上げられた。 0.68
PMLR, 1273–1282. PMLR 1273-1282。 0.37
https://proceedings. https://proceeds.com 。 0.47
mlr.press/v54/mcmaha n17a.html [20] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Köpf, Edward Yang, Zach DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. mlr.press/v54/mcmaha n17a.html [20] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Köpf, Edward Yang, Zach DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, Soumith Chintala
訳抜け防止モード: mlr.press/v54/mcmaha n17a.html [20 ] adam paszke, sam gross, francisco massa アダム・レラー ジェームズ・ブラッドベリー グレゴリー・チャナン トレヴァー・キリーン ゼミング・リン natalia gimelshein, luca antiga, alban desmaison, andreas köpf, エドワード・ヤン ザック・デヴィト マーティン・レイソン アリカン・テジャニ sasank chilamkurthy, benoit steiner, lu fang, junjie bai, そして すみとちんたら。
0.69
2019. PyTorch: An Imperative Style, High-Performance Deep Learning Library. 2019. PyTorch: 命令型スタイル,高性能なディープラーニングライブラリ。 0.58
CoRR abs/1912.01703 (2019). corr abs/1912.01703 (2019)。 0.59
arXiv:1912.01703 http://arxiv.org/abs /1912. arXiv:1912.01703 http://arxiv.org/abs /1912 0.20
01703 [21] Vibhor Rastogi and Suman Nath. 01703[21] Vibhor RastogiとSuman Nath。 0.38
2010. Differentially Private Aggregation of Distributed Time-Series with Transformation and Encryption. 2010. 変換と暗号化による分散時系列の微分プライベートアグリゲーション 0.60
In Proceedings of the 2010 ACM SIGMOD International Conference on Management of Data (Indianapolis, Indiana, USA) (SIGMOD ’10). 2010 ACM SIGMOD International Conference on Management of Data (Indianapolis, Indiana, USA) に参加。 0.28
Association for Computing Machinery, New York, NY, USA, 735–746. Association for Computing Machinery, New York, NY, USA, 735–746。 0.46
https://doi.org/10.1 145/1807167.1807247 [22] G Anthony Reina, Alexey Gruzdev, Patrick Foley, Olga Perepelkina, Mansi Sharma, Igor Davidyuk, Ilya Trushkin, Maksim Radionov, Aleksandr Mokrov, Dmitry Agapov, Jason Martin, Brandon Edwards, Micah J. Sheller, Sarthak Pati, Prakash Narayana Moorthy, Shih han Wang, Prashant Shah, and Spyridon Bakas. https://doi.org/10.1 145/1807167.1807247 [22] G Anthony Reina, Alexey Gruzdev, Patrick Foley, Olga Perepelkina, Mansi Sharma, Igor Davidyuk, Ilya Trushkin, Maksim Radionov, Aleksandr Mokrov, Dmitry Agapov, Jason Martin, Brandon Edwards, Micah J. Sheller, Sarthak Pati, Prakash Narayana Moorthy, Shih Han Wang, Prashant Shah, Spyridon Bakas。
訳抜け防止モード: https://doi.org/10.1 145/1807167.1807247 [ 22 ] g anthony reina, alexey gruzdev, patrick foley, olga perepelkina, mansi sharma, igor davidyuk, ilya trushkin, maksim radionov アレクサンドル・モクロフ、ドミトリー・アガポフ、ジェイソン・マーティン、ブランドン・エドワーズ。 micah j. sheller, sarthak pati, prakash narayana moorthy, shih han wang prashant shahとspyridon bakas。
0.77
2021. OpenFL: An open-source framework for Federated Learning. 2021. openfl: フェデレーション学習のためのオープンソースフレームワーク。 0.62
arXiv:2105.06413 [cs.LG] arXiv:2105.06413[cs.LG] 0.27
[23] Theo Ryffel, Andrew Trask, Morten Dahl, Bobby Wagner, Jason Mancuso, Daniel Rueckert, and Jonathan Passerat-Palmbach. Theo Ryffel氏、Andrew Trask氏、Morten Dahl氏、Bobby Wagner氏、Jason Mancuso氏、Daniel Rueckert氏、Jonathan Passerat-Palmbach氏。
訳抜け防止モード: 23] テオ・リッフェル アンドリュー・トラスク モーテン・ダール bobby wagner氏、jason mancuso氏、daniel rueckert氏、jonathan passerat氏 - palmbach氏。
0.67
2018. A generic framework for privacy preserving deep learning. 2018. ディープラーニングを保存するための一般的なフレームワーク。 0.45
CoRR abs/1811.04017 (2018). en:corr abs/1811.04017 (2018)。 0.41
arXiv:1811.04017 http://arxiv.org/abs /1811.04017 [24] Anit Kumar Sahu, Tian Li, Maziar Sanjabi, Manzil Zaheer, Ameet Talwalkar, and Virginia Smith. Anit Kumar Sahu氏、Tian Li氏、Maziar Sanjabi氏、Manzil Zaheer氏、Ameet Talwalkar氏、Virginia Smith氏。 0.60
2018. On the Convergence of Federated Optimization in Heterogeneous Networks. 2018. ヘテロジニアスネットワークにおけるフェデレーション最適化の収束について 0.55
CoRR abs/1812.06127 (2018). CoRR abs/1812.06127 (2018)。 0.69
arXiv:1812.06127 http: //arxiv.org/abs/1812 .06127 arXiv:1812.06127 http: //arxiv.org/abs/1812 .06127 0.15
               ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。