論文の概要: AirMixML: Over-the-Air Data Mixup for Inherently Privacy-Preserving Edge
Machine Learning
- arxiv url: http://arxiv.org/abs/2105.00395v1
- Date: Sun, 2 May 2021 05:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:16:33.802780
- Title: AirMixML: Over-the-Air Data Mixup for Inherently Privacy-Preserving Edge
Machine Learning
- Title(参考訳): AirMixML: プライバシを保護したエッジ機械学習のためのオーバーザエアデータ混在
- Authors: Yusuke Koda and Jihong Park and Mehdi Bennis and Praneeth Vepakomma
and Ramesh Raskar
- Abstract要約: ネットワークエッジにおけるプライバシー保護型機械学習フレームワークであるAirMixMLを提案する。
AirMixMLでは、複数のワーカーがプライベートデータサンプルのアナログ変調信号をエッジサーバに送信し、受信したノイズと重ね合わせのサンプルを使用してMLモデルをトレーニングします。
シミュレーションにより,dirmix(alpha)-pc設計ガイドラインを提供し,精度,プライバシ,エネルギー効率を向上させる。
- 参考スコア(独自算出の注目度): 54.52660257575346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wireless channels can be inherently privacy-preserving by distorting the
received signals due to channel noise, and superpositioning multiple signals
over-the-air. By harnessing these natural distortions and superpositions by
wireless channels, we propose a novel privacy-preserving machine learning (ML)
framework at the network edge, coined over-the-air mixup ML (AirMixML). In
AirMixML, multiple workers transmit analog-modulated signals of their private
data samples to an edge server who trains an ML model using the received
noisy-and superpositioned samples. AirMixML coincides with model training using
mixup data augmentation achieving comparable accuracy to that with raw data
samples. From a privacy perspective, AirMixML is a differentially private (DP)
mechanism limiting the disclosure of each worker's private sample information
at the server, while the worker's transmit power determines the privacy
disclosure level. To this end, we develop a fractional channel-inversion power
control (PC) method, {\alpha}-Dirichlet mixup PC (DirMix({\alpha})-PC), wherein
for a given global power scaling factor after channel inversion, each worker's
local power contribution to the superpositioned signal is controlled by the
Dirichlet dispersion ratio {\alpha}. Mathematically, we derive a closed-form
expression clarifying the relationship between the local and global PC factors
to guarantee a target DP level. By simulations, we provide DirMix({\alpha})-PC
design guidelines to improve accuracy, privacy, and energy-efficiency. Finally,
AirMixML with DirMix({\alpha})-PC is shown to achieve reasonable accuracy
compared to a privacy-violating baseline with neither superposition nor PC.
- Abstract(参考訳): 無線チャネルは、受信した信号をチャネルノイズによって歪め、複数の信号を空中で重ね合わせることで、本質的にプライバシーを守ることができる。
そこで本稿では,これらの自然歪みと重畳を無線チャネルで利用することにより,ネットワークエッジにおける新たなプライバシ保護機械学習(ML)フレームワークを提案する。
AirMixMLでは、複数のワーカーがプライベートデータサンプルのアナログ変調信号をエッジサーバに送信し、受信したノイズと重畳されたサンプルを使用してMLモデルをトレーニングする。
AirMixMLは、ミックスアップデータ拡張を使用したモデルトレーニングと一致し、生のデータサンプルと同等の精度を実現している。
プライバシの観点からは、AirMixMLは、各ワーカーのプライベートサンプル情報のサーバでの開示を制限する差分プライベート(DP)メカニズムであり、ワーカーの送信パワーはプライバシ開示レベルを決定する。
本研究では,チャネル反転後に与えられた大域的電力スケーリング係数に対して,重畳信号に対する各作業者の局所電力寄与をディリクレ分散比 {\alpha} で制御する分数的チャネル反転電力制御 (pc) 法, {\alpha}-dirichlet mixup pc (dirmix({\alpha})-pc) を開発した。
数学的には,対象のDPレベルを保証するために,局所的なPC要因とグローバルなPC要因の関係を明らかにするクローズドフォーム表現を導出する。
シミュレーションにより,dirmix({\alpha})-pc設計ガイドラインを提供し,精度,プライバシ,エネルギー効率を向上させる。
最後に、DirMix({\alpha})-PCを用いたAirMixMLは、重ね合わせでもPCでもないプライバシ違反ベースラインと比較して、妥当な精度が得られることを示した。
関連論文リスト
- DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - Privacy-Preserving Split Learning with Vision Transformers using Patch-Wise Random and Noisy CutMix [38.370923655357366]
コンピュータビジョンでは、視覚変換器(ViT)が、精度と堅牢性を改善するために畳み込みニューラルネットワーク(CNN)に取って代わりつつある。
分散学習(SL)は、サーバ側のリソースを活用してViTをトレーニングし、分散デバイスからのプライベートデータを活用する、実行可能なソリューションとして登場した。
本稿では,DP-CutMixSLと呼ばれる,スマッシュデータにガウスノイズを注入し,クライアント間でランダムに選択したスマッシュデータのパッチを混合する,新たなプライバシ保護型SLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-02T06:24:39Z) - Differentially Private Over-the-Air Federated Learning Over MIMO Fading
Channels [24.534729104570417]
フェデレートラーニング(FL)は、エッジデバイスが機械学習モデルを協調的にトレーニングすることを可能にする。
オーバー・ザ・エアのモデルアグリゲーションは通信効率を向上させるが、無線ネットワーク上のエッジサーバにモデルをアップロードすると、プライバシのリスクが生じる可能性がある。
FLモデルとマルチアンテナサーバとの通信がプライバシー漏洩を増幅することを示す。
論文 参考訳(メタデータ) (2023-06-19T14:44:34Z) - Differentially Private Wireless Federated Learning Using Orthogonal
Sequences [56.52483669820023]
本稿では,FLORAS と呼ばれる AirComp 法を提案する。
FLORASはアイテムレベルとクライアントレベルの差分プライバシー保証の両方を提供する。
新たなFL収束バウンダリが導出され、プライバシー保証と組み合わせることで、達成された収束率と差分プライバシーレベルのスムーズなトレードオフが可能になる。
論文 参考訳(メタデータ) (2023-06-14T06:35:10Z) - Differentially Private CutMix for Split Learning with Vision Transformer [42.47713044228984]
ビジョントランス (ViT) はコンピュータビジョンタスクにおける従来のCNNよりも優れている。
ViTを用いた分散学習のプライバシー保護を考えると,DP-CutMixSLを提案する。
論文 参考訳(メタデータ) (2022-10-28T08:33:29Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z) - XOR Mixup: Privacy-Preserving Data Augmentation for One-Shot Federated
Learning [49.130350799077114]
我々は、XorMixupという、プライバシー保護のためのXORベースのミックスアップデータ拡張技術を開発した。
中心となる考え方は、各デバイスのデータサンプルのみを使用してデコードされた、他のデバイスのエンコードされたデータサンプルを収集することである。
XorMixFLは、非IID MNISTデータセットの下で、Vanilla FLよりも最大17.6%高い精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。