論文の概要: Federated Dynamic GNN with Secure Aggregation
- arxiv url: http://arxiv.org/abs/2009.07351v1
- Date: Tue, 15 Sep 2020 21:04:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:58:33.492905
- Title: Federated Dynamic GNN with Secure Aggregation
- Title(参考訳): セキュアアグリゲーションを用いたフェデレーション動的GNN
- Authors: Meng Jiang and Taeho Jung and Ryan Karl and Tong Zhao
- Abstract要約: マルチユーザグラフシーケンスからオブジェクト表現を学習するためにFeddy(Federated Dynamic Graph Neural Network)を導入する。
各ユーザデバイス上のローカルモデルは、ユーザのデータをサーバに公開することなく、学習を定期的に中央サーバに送信する。
- 参考スコア(独自算出の注目度): 19.64009461103186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given video data from multiple personal devices or street cameras, can we
exploit the structural and dynamic information to learn dynamic representation
of objects for applications such as distributed surveillance, without storing
data at a central server that leads to a violation of user privacy? In this
work, we introduce Federated Dynamic Graph Neural Network (Feddy), a
distributed and secured framework to learn the object representations from
multi-user graph sequences: i) It aggregates structural information from nearby
objects in the current graph as well as dynamic information from those in the
previous graph. It uses a self-supervised loss of predicting the trajectories
of objects. ii) It is trained in a federated learning manner. The centrally
located server sends the model to user devices. Local models on the respective
user devices learn and periodically send their learning to the central server
without ever exposing the user's data to server. iii) Studies showed that the
aggregated parameters could be inspected though decrypted when broadcast to
clients for model synchronizing, after the server performed a weighted average.
We design an appropriate aggregation mechanism of secure aggregation primitives
that can protect the security and privacy in federated learning with
scalability. Experiments on four video camera datasets (in four different
scenes) as well as simulation demonstrate that Feddy achieves great
effectiveness and security.
- Abstract(参考訳): 複数のパーソナルデバイスやストリートカメラのビデオデータがあれば、ユーザプライバシの侵害につながる中央サーバにデータを格納することなく、構造化情報や動的情報を利用して分散監視などのアプリケーションのためのオブジェクトの動的表現を学べるだろうか?
本研究では,複数ユーザグラフ列からオブジェクト表現を学習するための分散セキュアなフレームワークであるfederated dynamic graph neural network (feddy)を提案する。
i)現在のグラフ内の近傍のオブジェクトからの構造情報を集約するとともに、前のグラフにあるものから動的情報を集約する。
オブジェクトの軌跡を予測する自己教師付き損失を使う。
二 連帯学習の仕方で訓練すること。
中央に位置するサーバは、モデルをユーザデバイスに送信する。
各ユーザデバイス上のローカルモデルは、ユーザのデータをサーバに公開することなく、学習を中央サーバに定期的に送信する。
三) サーバが重み付け平均を行った後、モデル同期のためにクライアントにブロードキャストしたときは復号化されながら、集約されたパラメータを検査できることを示した。
我々は,分散学習におけるセキュリティとプライバシを保護するための,セキュアなアグリゲーションプリミティブの適切なアグリゲーション機構を設計する。
4つのビデオカメラデータセット(4つの異なるシーン)の実験とシミュレーションは、Feddyが優れた有効性とセキュリティを実現することを示す。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Federated Learning Based Distributed Localization of False Data
Injection Attacks on Smart Grids [5.705281336771011]
偽データインジェクション攻撃(False Data Injection attack, FDIA)は、悪意のあるデータを注入することで、スマート測定デバイスをターゲットにする攻撃の1つである。
本稿では,ハイブリッドディープニューラルネットワークアーキテクチャと組み合わせたフェデレート学習に基づくスキームを提案する。
提案手法をIEEE 57,118,300バスシステムおよび実電力負荷データを用いて広範囲なシミュレーションにより検証した。
論文 参考訳(メタデータ) (2023-06-17T20:29:55Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - DYNAFED: Tackling Client Data Heterogeneity with Global Dynamics [60.60173139258481]
非イド分散データに対する局所訓練は、偏向局所最適化をもたらす。
自然な解決策は、サーバがデータ分散全体のグローバルなビューを持つように、すべてのクライアントデータをサーバに収集することです。
本稿では,データプライバシを損なうことなく,サーバ上でのグローバルな知識の収集と活用を図る。
論文 参考訳(メタデータ) (2022-11-20T06:13:06Z) - Graph Neural Networks for Multi-Robot Active Information Acquisition [15.900385823366117]
基礎となるグラフを通して通信する移動ロボットのチームは、興味のある現象を表す隠れた状態を推定する。
既存のアプローチはスケーラブルではないか、動的現象に対処できないか、あるいは通信グラフの変化に対して堅牢でないかのどちらかです。
本稿では,グラフ表現上に情報を集約し,逐次決定を分散的に行う情報対応グラフブロックネットワーク(I-GBNet)を提案する。
論文 参考訳(メタデータ) (2022-09-24T21:45:06Z) - Applied Federated Learning: Architectural Design for Robust and
Efficient Learning in Privacy Aware Settings [0.8454446648908585]
古典的な機械学習パラダイムは、中央にユーザーデータの集約を必要とする。
データの集中化は、内部および外部のセキュリティインシデントのリスクを高めることを含むリスクを引き起こす。
差分プライバシーによるフェデレーション学習は、サーバ側の集中化落とし穴を避けるように設計されている。
論文 参考訳(メタデータ) (2022-06-02T00:30:04Z) - Privatized Graph Federated Learning [57.14673504239551]
グラフによって連結された複数の単位からなるグラフフェデレーション学習を導入する。
グラフ準同型摂動はアルゴリズムが微分プライベートであることを保証するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-03-14T13:48:23Z) - Federated Stochastic Gradient Descent Begets Self-Induced Momentum [151.4322255230084]
Federated Learning(FL)は、モバイルエッジシステムに適用可能な、新興の機械学習手法である。
このような条件下での勾配降下(SGD)への走行は,大域的な集約プロセスに運動量的な項を加えるとみなすことができる。
論文 参考訳(メタデータ) (2022-02-17T02:01:37Z) - Eluding Secure Aggregation in Federated Learning via Model Inconsistency [2.647302105102753]
フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
悪意のあるサーバは,たとえ後者が存在していなかったとしても,セキュアなアグリゲーションを容易に回避できることを示す。
個別のプライベートトレーニングデータセットに関する情報を推測できる2つの異なる攻撃を考案する。
論文 参考訳(メタデータ) (2021-11-14T16:09:11Z) - Collaborative Unsupervised Visual Representation Learning from
Decentralized Data [34.06624704343615]
我々は、新しいフェデレーション付き教師なし学習フレームワーク、FedUを提案する。
このフレームワークでは、オンラインネットワークとターゲットネットワークとの対比学習を用いて、各パーティが、ラベルのないデータから独立してモデルをトレーニングする。
FedUはデータのプライバシを保護している。
論文 参考訳(メタデータ) (2021-08-14T08:34:11Z) - Information-Theoretic Bounds on the Generalization Error and Privacy
Leakage in Federated Learning [96.38757904624208]
モバイルネットワーク上の機械学習アルゴリズムは、3つのカテゴリに分類される。
この研究の主な目的は、前述のすべての学習パラダイムに対する情報理論のフレームワークを提供することである。
論文 参考訳(メタデータ) (2020-05-05T21:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。