論文の概要: Over-the-Air Ensemble Inference with Model Privacy
- arxiv url: http://arxiv.org/abs/2202.03129v1
- Date: Mon, 7 Feb 2022 13:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 18:43:54.734140
- Title: Over-the-Air Ensemble Inference with Model Privacy
- Title(参考訳): モデルプライバシーを用いたオンザエアアンサンブル推論
- Authors: Selim F. Yilmaz, Burak Hasircioglu, Deniz Gunduz
- Abstract要約: モデルアンサンブルを持つ複数のクライアントが並列にクエリされ、新しいサンプルの正確な決定を行う無線エッジでの分散推論を検討する。
我々は,帯域効率のよいアンサンブル推論手法を実装するために,空気の重畳特性を利用する。
- 参考スコア(独自算出の注目度): 3.265773263570237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider distributed inference at the wireless edge, where multiple
clients with an ensemble of models, each trained independently on a local
dataset, are queried in parallel to make an accurate decision on a new sample.
In addition to maximizing inference accuracy, we also want to maximize the
privacy of local models. We exploit the superposition property of the air to
implement bandwidth-efficient ensemble inference methods. We introduce
different over-the-air ensemble methods and show that these schemes perform
significantly better than their orthogonal counterparts, while using less
resources and providing privacy guarantees. We also provide experimental
results verifying the benefits of the proposed over-the-air inference approach,
whose source code is shared publicly on Github.
- Abstract(参考訳): ローカルデータセット上で個別に訓練されたモデルの集合を持つ複数のクライアントを並列にクエリして,新しいサンプルの正確な決定を行う,無線エッジでの分散推論を検討する。
推論精度の最大化に加えて、ローカルモデルのプライバシーも最大化したいと考えています。
帯域効率の良いアンサンブル推定手法を実装するために,空気の重畳特性を利用する。
我々は,これらのスキームが直交的手法よりもはるかに優れた性能を示すとともに,リソース使用量が少なく,プライバシの保証を提供することを示す。
また,提案手法の利点を検証する実験結果も提供し,ソースコードをgithub上で公開している。
関連論文リスト
- Mixture of Efficient Diffusion Experts Through Automatic Interval and Sub-Network Selection [63.96018203905272]
本稿では, 事前学習した拡散モデルを用いて, 効率の良い専門家の混入を図り, サンプリングコストを削減することを提案する。
提案手法であるDiffPruningの有効性を,複数のデータセットで示す。
論文 参考訳(メタデータ) (2024-09-23T21:27:26Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Private Collaborative Edge Inference via Over-the-Air Computation [2.679275781552016]
我々は、各クライアントのモデルをローカルデータセットで独立してトレーニングするワイヤレスエッジでの協調推論を検討する。
我々は、マルチアクセスチャネルの重畳特性を利用して、帯域効率の良いマルチユーザ推論手法を実装した。
論文 参考訳(メタデータ) (2024-07-30T19:28:28Z) - Personalized Graph Federated Learning with Differential Privacy [6.282767337715445]
本稿では、分散接続されたサーバとそのエッジデバイスが協調してデバイスやクラスタ固有のモデルを学習する、パーソナライズされたグラフフェデレーション学習(PGFL)フレームワークを提案する。
本稿では、差分プライバシー、特にノイズシーケンスがモデル交換を行うゼロ集中差分プライバシーを利用するPGFL実装の変種について検討する。
分析の結果,このアルゴリズムは,ゼロ集中型差分プライバシーの観点から,全クライアントの局所的な差分プライバシを保証することがわかった。
論文 参考訳(メタデータ) (2023-06-10T09:52:01Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Balancing Privacy and Performance for Private Federated Learning
Algorithms [4.681076651230371]
Federated Learning(FL)は、複数のクライアントがプライベートデータを公開せずにモデルをトレーニングする分散機械学習フレームワークである。
FLアルゴリズムは、共有前に各クライアントのモデル更新にノイズを導入する差分プライバシーメカニズムを頻繁に採用する。
ローカルステップの数と通信ラウンドの間に最適なバランスがあることを示し、プライバシー予算内での収束性能を最大化する。
論文 参考訳(メタデータ) (2023-04-11T10:42:11Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Renyi Differential Privacy of the Subsampled Shuffle Model in
Distributed Learning [7.197592390105457]
クライアントは、プライバシを必要とするサーバとのインタラクションを通じて、学習モデルを反復的に構築する分散学習フレームワークで、プライバシを研究する。
最適化とフェデレートラーニング(FL)パラダイムによって動機付けられ、各ラウンドで少数のデータサンプルがランダムにサブサンプリングされた場合に焦点を当てる。
より強力なローカルプライバシ保証を得るために,各クライアントがローカルディファレンシャル・プライベート(LDP)機構を用いて応答をランダム化するシャッフルプライバシ・モデルを用いてこれを検証した。
論文 参考訳(メタデータ) (2021-07-19T11:43:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。