論文の概要: Decentralized Privacy-Preserving Federal Learning of Computer Vision Models on Edge Devices
- arxiv url: http://arxiv.org/abs/2601.04912v1
- Date: Thu, 08 Jan 2026 13:10:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.211825
- Title: Decentralized Privacy-Preserving Federal Learning of Computer Vision Models on Edge Devices
- Title(参考訳): エッジデバイス上でのコンピュータビジョンモデルの分散プライバシ保護連邦学習
- Authors: Damian Harenčák, Lukáš Gajdošech, Martin Madaras,
- Abstract要約: 機械学習モデルの協調トレーニングには、機密データやプライベートデータを共有するリスクが伴う。
フェデレーション学習は、クライアントデータを共有することなく、単一のグローバルモデルを集合的にトレーニングする方法を提供する。
分類に用いる畳み込みニューラルネットワークの精度に及ぼす勾配圧縮と勾配雑音の負の効果を解析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Collaborative training of a machine learning model comes with a risk of sharing sensitive or private data. Federated learning offers a way of collectively training a single global model without the need to share client data, by sharing only the updated parameters from each client's local model. A central server is then used to aggregate parameters from all clients and redistribute the aggregated model back to the clients. Recent findings have shown that even in this scenario, private data can be reconstructed only using information about model parameters. Current efforts to mitigate this are mainly focused on reducing privacy risks on the server side, assuming that other clients will not act maliciously. In this work, we analyzed various methods for improving the privacy of client data concerning both the server and other clients for neural networks. Some of these methods include homomorphic encryption, gradient compression, gradient noising, and discussion on possible usage of modified federated learning systems such as split learning, swarm learning or fully encrypted models. We have analyzed the negative effects of gradient compression and gradient noising on the accuracy of convolutional neural networks used for classification. We have shown the difficulty of data reconstruction in the case of segmentation networks. We have also implemented a proof of concept on the NVIDIA Jetson TX2 module used in edge devices and simulated a federated learning process.
- Abstract(参考訳): 機械学習モデルの協調トレーニングには、機密データやプライベートデータを共有するリスクが伴う。
フェデレーション学習は、クライアントのローカルモデルから更新されたパラメータのみを共有することで、クライアントデータを共有する必要なく、単一のグローバルモデルを集合的にトレーニングする方法を提供する。
次に、中央サーバを使用して、すべてのクライアントからパラメータを集約し、集約されたモデルをクライアントに再配布する。
近年, このシナリオにおいても, モデルパラメータに関する情報のみを用いて, プライベートデータを再構成できることが示唆されている。
この問題を軽減するための現在の取り組みは、他のクライアントが悪意を持って行動しないと仮定して、主にサーバ側のプライバシーリスクを減らすことに焦点を当てている。
本研究では,ニューラルネットワークにおけるサーバと他のクライアントの両方に関して,クライアントデータのプライバシを改善するためのさまざまな手法を解析した。
これらの手法には、ホモモルフィック暗号化、勾配圧縮、勾配ノイズ化、スプリットラーニング、スワムラーニング、完全暗号化モデルなど、修正されたフェデレーション学習システムの使用の可能性に関する議論などがある。
分類に用いる畳み込みニューラルネットワークの精度に及ぼす勾配圧縮と勾配雑音の負の効果を解析した。
セグメンテーションネットワークにおけるデータ再構成の難しさを示す。
また、エッジデバイスで使用されるNVIDIA Jetson TX2モジュールに概念実証を実装し、フェデレートした学習プロセスをシミュレートした。
関連論文リスト
- Enhancing Federated Learning Privacy with QUBO [0.0]
フェデレーテッド・ラーニング(FL)は、プライバシを保ちながらスケーラブルな方法で機械学習(ML)モデルをトレーニングするための広く使われている方法である。
本稿では,トレーニング中のクライアントによる情報漏洩と,グローバルモデルのクエリや取得が可能な敵の2つの脅威ベクトルに着目した。
20ラウンドで300のクライアントを持つMNISTデータセットの実験では、1ラウンドあたり95.2%、累積プライバシー露出が49%減少した。
論文 参考訳(メタデータ) (2025-11-04T18:06:30Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。