論文の概要: Data Distribution Shifts in (Industrial) Federated Learning as a Privacy Issue
- arxiv url: http://arxiv.org/abs/2409.13875v1
- Date: Fri, 20 Sep 2024 20:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 04:50:50.831562
- Title: Data Distribution Shifts in (Industrial) Federated Learning as a Privacy Issue
- Title(参考訳): プライバシ問題としての(工業的)フェデレーション学習におけるデータ流通の変化
- Authors: David Brunner, Alessio Montuoro,
- Abstract要約: 我々は、少数の強力で潜在的に競合する工業者間のコラボレーションである産業連合学習を考察する。
この設定は、デバイス間設定などでは発生しないプライバシーリスクを隠蔽する、と我々は主張する。
攻撃者は、他のクライアントに対して微妙な分布シフトを検知できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider industrial federated learning, a collaboration between a small number of powerful, potentially competing industrial players, mediated by a third party aspiring to improve the service it provides to its customers. We argue that this configuration harbours covert privacy risks that do not arise in e.g. cross-device settings. Companies are very protective of their intellectual property and production processes. Information about changes to their production and the timing of which is to be kept private. We study a scenario in which one of the collaborators infers changes to their competitors' production by detecting potentially subtle temporal data distribution shifts. In this framing, a data distribution shift is always problematic, even if it has no negative effect on training convergence. Thus, our goal is to find means that allow the detection of distributional shifts better than customary evaluation metrics. Based on the assumption that even minor shifts translate into the collaboratively learned machine learning model, the attacker tracks the shared models' internal state with a selection of metrics from literature in order to pick up on relevant changes. In an empirical study on benchmark datasets, we show an honest-but-curious attacker to be capable of detecting subtle distributional shifts on other clients, in some cases long before they become obvious in evaluation.
- Abstract(参考訳): 我々は、少数の強力で潜在的に競合する工業者間のコラボレーションである産業連合学習を、顧客に提供するサービスを改善することを目的とした第三者の仲介により検討する。
この設定は、デバイス間設定などでは発生しないプライバシーリスクを隠蔽する、と我々は主張する。
企業は知的財産権と生産過程を非常に保護している。
生産の変更に関する情報と、その時期を非公開にしておくこと。
本研究では,潜在的に微妙な時間的データ分布シフトを検出することによって,共同作業者の1人が競合製品に変化を推測するシナリオについて検討する。
このフレーミングでは、たとえトレーニング収束に悪影響を及ぼさないとしても、データ分散シフトは常に問題となる。
そこで本研究の目的は,従来の評価指標よりも分布変化の検出が優れている方法を見つけることである。
マイナーシフトでさえ、コラボレーティブに学習された機械学習モデルに変換されるという仮定に基づいて、アタッカーは、関連する変更をピックアップするために、文献からメトリクスを選択することで、共有モデルの内部状態を追跡する。
ベンチマークデータセットに関する実証的研究では、正直だが正確な攻撃者は、他のクライアントに対して微妙な分布シフトを検出できることを示した。
関連論文リスト
- Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Masked Autoencoders are Efficient Continual Federated Learners [20.856520787551453]
継続的な学習は、クライアント間で共有される表現の教師なしの学習に基礎を置くべきです。
分布推定のためのマスク付きオートエンコーダはこの設定に特に適している。
論文 参考訳(メタデータ) (2023-06-06T09:38:57Z) - Even Small Correlation and Diversity Shifts Pose Dataset-Bias Issues [19.4921353136871]
実験サンプルがトレーニング中に見つからないパターンを示す場合の多様性シフトと、テストデータが観察された不変性と急激な特徴の異なる相関を示す場合の相関シフトの2種類について検討した。
そこで我々は,両タイプのシフトをデータセットを用いて分析し,制御可能な方法で共存する統合プロトコルを提案する。
論文 参考訳(メタデータ) (2023-05-09T23:40:23Z) - When Do Curricula Work in Federated Learning? [56.88941905240137]
カリキュラム学習は非IID性を大幅に軽減する。
クライアント間でデータ配布を多様化すればするほど、学習の恩恵を受けるようになる。
本稿では,クライアントの現実的格差を生かした新しいクライアント選択手法を提案する。
論文 参考訳(メタデータ) (2022-12-24T11:02:35Z) - Vicious Classifiers: Assessing Inference-time Data Reconstruction Risk in Edge Computing [2.2636351333487315]
エッジコンピューティングにおけるプライバシ保護推論は、マシンラーニングサービスのユーザがプライベート入力でモデルをローカルに実行できるようにする。
本研究では,モデル出力のみを観測することで,悪質なサーバが入力データを再構成する方法について検討する。
予測時間復元リスクを評価するための新しい尺度を提案する。
論文 参考訳(メタデータ) (2022-12-08T12:05:50Z) - Study of the performance and scalability of federated learning for
medical imaging with intermittent clients [0.0]
フェデレートラーニング(Federated Learning)は、マシンラーニングやディープラーニングをセキュアな方法で実行するために使用される、データ分散化プライバシ保護技術である。
オープンデータリポジトリから得られた胸部X線画像を用いて, 医用画像解析のユースケースを提案する。
異なるクライアントはトレーニングデータからシミュレートされ、不均衡な方法で選択される。
実際のシナリオでは、一部のクライアントがトレーニングを離れるかもしれないし、新しいクライアントがトレーニングに入るかもしれない。
論文 参考訳(メタデータ) (2022-07-18T13:18:34Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Tracking the risk of a deployed model and detecting harmful distribution
shifts [105.27463615756733]
実際には、デプロイされたモデルのパフォーマンスが大幅に低下しないという、良心的なシフトを無視することは理にかなっている。
我々は,警告を発射する有効な方法は,(a)良性な警告を無視しながら有害なシフトを検知し,(b)誤報率を増大させることなく,モデル性能の連続的なモニタリングを可能にすることを論じる。
論文 参考訳(メタデータ) (2021-10-12T17:21:41Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Robust Fairness under Covariate Shift [11.151913007808927]
保護グループメンバーシップに関して公正な予測を行うことは、分類アルゴリズムの重要な要件となっている。
本稿では,ターゲット性能の面で最悪のケースに対して頑健な予測値を求める手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T04:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。