論文の概要: Source Anonymity for Private Random Walk Decentralized Learning
- arxiv url: http://arxiv.org/abs/2505.07011v1
- Date: Sun, 11 May 2025 15:13:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.159125
- Title: Source Anonymity for Private Random Walk Decentralized Learning
- Title(参考訳): ランダムウォーク分散学習のためのソース匿名性
- Authors: Maximilian Egger, Svenja Lage, Rawad Bitar, Antonia Wachter-Zeh,
- Abstract要約: データプライバシを保存することは、分散学習における中心的な関心事であり、オープンな問題である。
公開鍵暗号と匿名化に基づくプライバシー保護アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 19.614987907089596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers random walk-based decentralized learning, where at each iteration of the learning process, one user updates the model and sends it to a randomly chosen neighbor until a convergence criterion is met. Preserving data privacy is a central concern and open problem in decentralized learning. We propose a privacy-preserving algorithm based on public-key cryptography and anonymization. In this algorithm, the user updates the model and encrypts the result using a distant user's public key. The encrypted result is then transmitted through the network with the goal of reaching that specific user. The key idea is to hide the source's identity so that, when the destination user decrypts the result, it does not know who the source was. The challenge is to design a network-dependent probability distribution (at the source) over the potential destinations such that, from the receiver's perspective, all users have a similar likelihood of being the source. We introduce the problem and construct a scheme that provides anonymity with theoretical guarantees. We focus on random regular graphs to establish rigorous guarantees.
- Abstract(参考訳): 本稿では、ランダムウォークに基づく分散学習について考察し、学習プロセスの各イテレーションにおいて、あるユーザがモデルを更新し、収束基準を満たすまでランダムに選択された隣人に送信する。
データプライバシを保存することは、分散学習における中心的な関心事であり、オープンな問題である。
公開鍵暗号と匿名化に基づくプライバシー保護アルゴリズムを提案する。
このアルゴリズムでは、ユーザはモデルを更新し、遠方のユーザの公開鍵を使って結果を暗号化する。
暗号化された結果は、その特定のユーザに到達することを目標として、ネットワークを介して送信される。
鍵となるアイデアは、ソースのIDを隠して、宛先ユーザが結果を復号したとき、ソースが誰であるかを知らないようにすることである。
課題は、レシーバの観点からは、すべてのユーザがソースになる確率が同じであるような、潜在的宛先上のネットワーク依存確率分布(ソース)を設計することである。
問題を導入し、理論的な保証と匿名性を提供するスキームを構築する。
我々は厳密な保証を確立するためにランダムな正則グラフに焦点を当てる。
関連論文リスト
- Differentially Private Decentralized Learning with Random Walks [15.862152253607496]
ランダムウォークアルゴリズムを用いて分散学習のプライバシー保証を特徴付ける。そこでは、あるノードから別のノードへ通信グラフのエッジに沿って移動することで、モデルを更新する。
その結果、ランダムウォークアルゴリズムは、互いに近接するノードに対するゴシップアルゴリズムよりも、より優れたプライバシ保証をもたらす傾向があることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-12T08:16:58Z) - Randomized Quantization is All You Need for Differential Privacy in
Federated Learning [1.9785872350085876]
量子化と差分プライバシーを組み合わせたフェデレーション学習のアプローチを検討する。
我々は textbfRandomized textbfQuantization textbfMechanism (RQM) と呼ばれる新しいアルゴリズムを開発した。
アルゴリズムの性能を実証的に研究し、これまでの研究と比較すると、プライバシーと精度のトレードオフが改善されていることを示す。
論文 参考訳(メタデータ) (2023-06-20T21:54:13Z) - FedForgery: Generalized Face Forgery Detection with Residual Federated
Learning [87.746829550726]
既存の顔偽造検出方法は、取得した共有データや集中データを直接利用して訓練を行う。
顔偽造検出のための一般化された残留フェデレーション学習(FedForgery)を提案する。
顔偽造検出データセットを公開して行った実験は、提案したFedForgeryの優れた性能を証明している。
論文 参考訳(メタデータ) (2022-10-18T03:32:18Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Network Shuffling: Privacy Amplification via Random Walks [21.685747588753514]
ネットワーク/グラフ上でランダムウォーク方式でデータを交換する分散メカニズムであるネットワークシャッフルを導入する。
プライバシーの増幅率は、均一シャッフルのような他のプライバシーの増幅手法と類似していることが示される。
論文 参考訳(メタデータ) (2022-04-08T08:36:06Z) - Syfer: Neural Obfuscation for Private Data Release [58.490998583666276]
我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Privacy-Preserved Blockchain-Federated-Learning for Medical Image
Analysis Towards Multiple Parties [5.296010468961924]
この記事では、フェデレーション付き学習とブロックチェーンに基づくプライバシ保護フレームワークを設計する。
最初のステップでは、カプセルネットワークを使用してローカルモデルをトレーニングして、COVID-19画像のセグメンテーションと分類を行います。
第2のステップでは、同型暗号方式により局所モデルを確保します。
論文 参考訳(メタデータ) (2021-04-22T07:32:04Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。