論文の概要: Federated Graph-based Networks with Shared Embedding
- arxiv url: http://arxiv.org/abs/2210.01803v1
- Date: Mon, 3 Oct 2022 12:51:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 12:57:26.002423
- Title: Federated Graph-based Networks with Shared Embedding
- Title(参考訳): 共有埋め込みによるフェデレーショングラフベースネットワーク
- Authors: Tianyi Yu, Pei Lai, Fei Teng
- Abstract要約: 本稿では,共有埋め込み(Feras)を用いたフェデレーショングラフベースのネットワークを提案する。
Ferasは、現在のグラフベースのモデルのトレーニングを、フェデレートされた学習フレームワークで行うことで、プライバシの懸念を解消する。
- 参考スコア(独自算出の注目度): 1.323497585762675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, user privacy is becoming an issue that cannot be bypassed for
system developers, especially for that of web applications where data can be
easily transferred through internet. Thankfully, federated learning proposes an
innovative method to train models with distributed devices while data are kept
in local storage. However, unlike general neural networks, although graph-based
networks have achieved great success in classification tasks and advanced
recommendation system, its high performance relies on the rich context provided
by a graph structure, which is vulnerable when data attributes are incomplete.
Therefore, the latter becomes a realistic problem when implementing federated
learning for graph-based networks. Knowing that data embedding is a
representation in a different space, we propose our Federated Graph-based
Networks with Shared Embedding (Feras), which uses shared embedding data to
train the network and avoids the direct sharing of original data. A solid
theoretical proof of the convergence of Feras is given in this work.
Experiments on different datasets (PPI, Flickr, Reddit) are conducted to show
the efficiency of Feras for centralized learning. Finally, Feras enables the
training of current graph-based models in the federated learning framework for
privacy concern.
- Abstract(参考訳): 今日では、ユーザープライバシはシステム開発者、特にインターネット経由で簡単にデータを転送できるWebアプリケーションにとってバイパスできない問題になりつつある。
ありがたいことに、フェデレーション学習は、データをローカルストレージに保存しながら、分散デバイスでモデルをトレーニングする革新的な方法を提案する。
しかしながら、一般的なニューラルネットワークとは異なり、グラフベースのネットワークは分類タスクや高度なレコメンデーションシステムで大きな成功を収めているが、そのハイパフォーマンスはグラフ構造によって提供されるリッチなコンテキストに依存しており、データ属性が不完全である場合には脆弱である。
したがって、グラフベースのネットワークで連合学習を実装する場合、後者は現実的な問題となる。
データの埋め込みが別の空間における表現であることを知るために,共有埋め込み(shared embedded,feras)を用いたフェデレーショングラフベースのネットワークを提案する。
この研究において、フェルス収束の確固たる理論的証明が与えられる。
異なるデータセット(PPI、Flickr、Reddit)の実験を行い、集中学習におけるFerasの有効性を示す。
最後にferasは、プライバシーを懸念するフェデレーション学習フレームワークで、現在のグラフベースのモデルのトレーニングを可能にする。
関連論文リスト
- Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - Distribution Shift Matters for Knowledge Distillation with Webly
Collected Images [91.66661969598755]
異なる分布間の知識蒸留という新しい手法を提案する(KD$3$)。
まず,教師ネットワークと学生ネットワークの併用予測に基づいて,Webで収集したデータから有用なトレーニングインスタンスを動的に選択する。
また、MixDistributionと呼ばれる新しいコントラスト学習ブロックを構築して、新しい分散のインスタンスアライメントで摂動データを生成します。
論文 参考訳(メタデータ) (2023-07-21T10:08:58Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - SMARTQUERY: An Active Learning Framework for Graph Neural Networks
through Hybrid Uncertainty Reduction [25.77052028238513]
本稿では,ハイブリッド不確実性低減関数を用いて,ラベル付きノードの少ないグラフニューラルネットワークを学習するフレームワークを提案する。
ごく少数のラベル付きデータを用いた最先端技術に対する本手法の競合性能を実証する。
論文 参考訳(メタデータ) (2022-12-02T20:49:38Z) - Federated Learning on Non-IID Graphs via Structural Knowledge Sharing [47.140441784462794]
フェデレーショングラフ学習(FGL)により、クライアントはプライベートデータを共有せずに、分散型で強力なGNNモデルをトレーニングできる。
我々はFedStarというFGLフレームワークを提案し、グラフ間学習タスクの共通基盤構造情報を抽出し、共有する。
クロスデータセットとクロスドメインのFGL設定の両方に対して広範な実験を行い、FedStarの優位性を実証した。
論文 参考訳(メタデータ) (2022-11-23T15:12:16Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - FedEgo: Privacy-preserving Personalized Federated Graph Learning with
Ego-graphs [22.649780281947837]
いくつかの実践的なシナリオでは、グラフデータは複数の分散パーティに別々に格納されます。
上記の課題に対処するために,egoグラフに基づくフェデレーショングラフ学習フレームワークであるFedEgoを提案する。
論文 参考訳(メタデータ) (2022-08-29T15:47:36Z) - Privatized Graph Federated Learning [57.14673504239551]
グラフによって連結された複数の単位からなるグラフフェデレーション学習を導入する。
グラフ準同型摂動はアルゴリズムが微分プライベートであることを保証するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-03-14T13:48:23Z) - SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural
Networks [13.965982814292971]
グラフニューラルネットワーク(GNN)は、グラフ機械学習問題の第一選択方法である。
GNNトレーニングのための大量の実世界のグラフデータを集中させることは、ユーザ側のプライバシー上の懸念から禁じられている。
本研究では,新しいマルチタスク・フェデレーション・トレーニング・フレームワークであるSpreadGNNを提案する。
論文 参考訳(メタデータ) (2021-06-04T22:20:47Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。