論文の概要: FedComm: Federated Learning as a Medium for Covert Communication
- arxiv url: http://arxiv.org/abs/2201.08786v1
- Date: Fri, 21 Jan 2022 17:05:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 15:04:15.409427
- Title: FedComm: Federated Learning as a Medium for Covert Communication
- Title(参考訳): fedcomm: 秘密コミュニケーションの媒体としての連合学習
- Authors: Dorjan Hitaj, Giulio Pagnotta, Briland Hitaj, Fernando Perez-Cruz,
Luigi V. Mancini
- Abstract要約: 我々は、フェデレートラーニングフレームワーク内でターゲットペイロードのロバストな共有と転送を可能にする、新しい秘密通信技術であるFedCommを紹介する。
実験の結果,FLプロシージャが収束する前に,FedCommはペイロードの100%をキロビットの順に配送することができた。
- 参考スコア(独自算出の注目度): 56.376997104843355
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Proposed as a solution to mitigate the privacy implications related to the
adoption of deep learning solutions, Federated Learning (FL) enables large
numbers of participants to successfully train deep neural networks without
having to reveal the actual private training data. To date, a substantial
amount of research has investigated the security and privacy properties of FL,
resulting in a plethora of innovative attack and defense strategies. This paper
thoroughly investigates the communication capabilities of an FL scheme. In
particular, we show that a party involved in the FL learning process can use FL
as a covert communication medium to send an arbitrary message. We introduce
FedComm, a novel covert-communication technique that enables robust sharing and
transfer of targeted payloads within the FL framework. Our extensive
theoretical and empirical evaluations show that FedComm provides a stealthy
communication channel, with minimal disruptions to the training process. Our
experiments show that FedComm, allowed us to successfully deliver 100% of a
payload in the order of kilobits before the FL procedure converges. Our
evaluation also shows that FedComm is independent of the application domain and
the neural network architecture used by the underlying FL scheme.
- Abstract(参考訳): ディープラーニングソリューションの採用に伴うプライバシーへの影響を軽減するソリューションとして提案されたfederated learning(fl)は、多くの参加者が、実際のプライベートトレーニングデータを明かすことなく、ディープニューラルネットワークのトレーニングに成功した。
これまで多くの研究がflのセキュリティとプライバシー特性を調査し、多くの革新的な攻撃と防衛戦略を生み出してきた。
本稿では,FL方式の通信能力について詳しく検討する。
特に,FL学習プロセスに関わる当事者が,FLを秘密通信媒体として利用して任意のメッセージを送ることができることを示す。
我々は、FLフレームワーク内でターゲットペイロードのロバストな共有と転送を可能にする新しい秘密通信技術であるFedCommを紹介する。
我々はFedCommがステルスなコミュニケーションチャネルを提供し、トレーニングプロセスの中断を最小限に抑えていることを示す。
実験の結果,FLプロシージャが収束する前に,FedCommはペイロードの100%をキロビットの順に配送することができた。
また、FedCommはアプリケーションドメインと基盤となるFLスキームで使用されるニューラルネットワークアーキテクチャとは独立であることを示す。
関連論文リスト
- Exploring the Practicality of Federated Learning: A Survey Towards the Communication Perspective [1.088537320059347]
Federated Learning(FL)は、プライバシ保護、分散機械学習の大幅な進歩を提供する、有望なパラダイムである。
しかし、FLシステムの実践的な展開は、通信オーバーヘッドという大きなボトルネックに直面している。
本研究は,通信効率FLにおける様々な戦略と進歩について検討する。
論文 参考訳(メタデータ) (2024-05-30T19:21:33Z) - FedComLoc: Communication-Efficient Distributed Training of Sparse and Quantized Models [56.21666819468249]
フェデレートラーニング(FL)は、異種クライアントがローカルにプライベートデータを処理し、中央サーバーと対話できるというユニークな特徴から、注目を集めている。
我々は,emphScaffnewに実用的で効果的な圧縮を統合し,通信効率を向上するFedComLocを紹介した。
論文 参考訳(メタデータ) (2024-03-14T22:29:59Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Communication Efficient and Privacy-Preserving Federated Learning Based
on Evolution Strategies [0.0]
Federated Learning(FL)は、ディープニューラルネットワーク(DNN)を分散的にトレーニングするための新興パラダイムである。
本研究では,ゼロオーダー学習法である進化戦略(FedES)に基づくフェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-05T21:40:46Z) - UFed-GAN: A Secure Federated Learning Framework with Constrained
Computation and Unlabeled Data [50.13595312140533]
本稿では,UFed-GAN: Unsupervised Federated Generative Adversarial Networkを提案する。
実験により,プライバシを保ちながら,限られた計算資源とラベルなしデータに対処するUFed-GANの強い可能性を示す。
論文 参考訳(メタデータ) (2023-08-10T22:52:13Z) - FedNC: A Secure and Efficient Federated Learning Method with Network
Coding [18.556693764310328]
Federated Learning(FL)は、プライバシー侵害とシステム効率という2つの大きな課題に直面している、有望な分散学習メカニズムである。
本研究では、ネットワーク情報理論の観点からFLシステムを再認識し、ネットワーク符号化(NC)にインスパイアされたオリジナルのFL通信フレームワークであるFedNCを定式化する。
論文 参考訳(メタデータ) (2023-05-05T05:47:40Z) - FedLP: Layer-wise Pruning Mechanism for Communication-Computation
Efficient Federated Learning [15.665720478360557]
フェデレートラーニング(FL)は、分散ラーニングのための効率的でプライバシー保護されたスキームとして普及している。
我々は,異なるタイプのディープラーニングモデルに対して,モデルに依存しない,普遍的なFLプルーニングフレームワークであるFedLP(Federated Layer-wise Pruning)を定式化する。
論文 参考訳(メタデータ) (2023-03-11T09:57:00Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - On the Design of Communication-Efficient Federated Learning for Health
Monitoring [21.433739206682404]
本稿では,クライアントクラスタリングと伝達学習を含む通信効率のよいフェデレーション学習(CEFL)フレームワークを提案する。
CEFLは従来のFLと比較して、通信コストを最大98.45%削減でき、精度損失は3%未満である。
論文 参考訳(メタデータ) (2022-11-30T12:52:23Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。