論文の概要: Prioritized Multi-Criteria Federated Learning
- arxiv url: http://arxiv.org/abs/2007.08893v1
- Date: Fri, 17 Jul 2020 10:49:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:12:55.229567
- Title: Prioritized Multi-Criteria Federated Learning
- Title(参考訳): 優先順位付きマルチクリテリアフェデレーション学習
- Authors: Vito Walter Anelli, Yashar Deldjoo, Tommaso Di Noia, Antonio Ferrara
- Abstract要約: マシンラーニングのシナリオでは、モデルがサービスのユーザから来るプライベートデータでトレーニングされる必要がある場合、プライバシが重要な問題になります。
我々は,多数のクライアントに分散したプライベートデータセットに基づくMLモデルを構築する手段として,フェデレートラーニング(FL)を提案する。
中央コーディネートサーバは、クライアントによってローカルに計算された更新を受け取り、それらを集約してより良いグローバルモデルを得る。
- 参考スコア(独自算出の注目度): 16.35440946424973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Machine Learning scenarios, privacy is a crucial concern when models have
to be trained with private data coming from users of a service, such as a
recommender system, a location-based mobile service, a mobile phone text
messaging service providing next word prediction, or a face image
classification system. The main issue is that, often, data are collected,
transferred, and processed by third parties. These transactions violate new
regulations, such as GDPR. Furthermore, users usually are not willing to share
private data such as their visited locations, the text messages they wrote, or
the photo they took with a third party. On the other hand, users appreciate
services that work based on their behaviors and preferences. In order to
address these issues, Federated Learning (FL) has been recently proposed as a
means to build ML models based on private datasets distributed over a large
number of clients, while preventing data leakage. A federation of users is
asked to train a same global model on their private data, while a central
coordinating server receives locally computed updates by clients and aggregate
them to obtain a better global model, without the need to use clients' actual
data. In this work, we extend the FL approach by pushing forward the
state-of-the-art approaches in the aggregation step of FL, which we deem
crucial for building a high-quality global model. Specifically, we propose an
approach that takes into account a suite of client-specific criteria that
constitute the basis for assigning a score to each client based on a priority
of criteria defined by the service provider. Extensive experiments on two
publicly available datasets indicate the merits of the proposed approach
compared to standard FL baseline.
- Abstract(参考訳): マシンラーニングのシナリオでは、リコメンデータシステム、ロケーションベースのモバイルサービス、次の単語予測を提供する携帯電話テキストメッセージサービス、あるいは顔画像分類システムといった、サービスのユーザから来るプライベートデータでモデルをトレーニングする必要がある場合、プライバシは重要な懸念事項である。
主な問題は、データが収集され、転送され、サードパーティによって処理されることです。
これらの取引はGDPRのような新しい規制に違反している。
さらに、ユーザーは、訪問した場所、書いたテキストメッセージ、あるいは第三者と撮った写真など、通常プライベートなデータを共有したくない。
一方、ユーザは自分の行動や好みに基づいて動作するサービスに気付く。
これらの問題に対処するため、フェデレートラーニング(FL)は、データ漏洩を防止しつつ、多数のクライアントに分散されたプライベートデータセットに基づいたMLモデルを構築する手段として最近提案されている。
ユーザの連合は、プライベートデータ上で同じグローバルモデルをトレーニングするように要求され、中央コーディネートサーバは、クライアントによってローカルに計算された更新を受け取り、それらを集約することで、クライアントの実際のデータを使用することなく、より優れたグローバルモデルを得る。
本稿では,高品質グローバルモデルの構築に不可欠なflの集約段階において,最先端のアプローチを前進させることで,flアプローチを拡張する。
具体的には、サービスプロバイダが定義する基準の優先順位に基づいて、各クライアントにスコアを割り当てる基礎となる、クライアント固有の一連の基準を考慮に入れるアプローチを提案する。
2つの公開データセットに関する広範な実験は、標準のflベースラインと比較して提案手法のメリットを示している。
関連論文リスト
- Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - MAP: Model Aggregation and Personalization in Federated Learning with Incomplete Classes [49.22075916259368]
一部の実世界のアプリケーションでは、データサンプルは通常、ローカルデバイスに分散される。
本稿では,クライアントが不完全なクラスを所有する特別なI.I.D.シーンに焦点を当てる。
提案するMAPアルゴリズムは,FLにおけるアグリゲーションとパーソナライゼーションの目標を同時に達成できる。
論文 参考訳(メタデータ) (2024-04-14T12:22:42Z) - FedGeo: Privacy-Preserving User Next Location Prediction with Federated
Learning [27.163370946895697]
ユーザ次位置予測(UNLP)タスクは、ユーザが与えられた軌道に移動する次の位置を予測するもので、幅広いアプリケーションにとって必須のタスクである。
単一サーバにおける大規模トラジェクトリデータセットを用いた従来の研究は、UNLPタスクにおいて顕著な性能を達成している。
現実世界のアプリケーションでは、プライバシーに関する法的および倫理的な問題が提起され、人間の軌道データセットを他のサーバーと共有することを禁じられている。
論文 参考訳(メタデータ) (2023-12-06T01:43:58Z) - Visual Prompt Based Personalized Federated Learning [83.04104655903846]
pFedPTと呼ばれる画像分類タスクのための新しいPFLフレームワークを提案し、クライアントのローカルデータ配信情報を暗黙的に表現するためにパーソナライズされた視覚的プロンプトを利用する。
CIFAR10とCIFAR100データセットの実験では、pFedPTは様々な設定でいくつかの最先端(SOTA)PFLアルゴリズムより優れていた。
論文 参考訳(メタデータ) (2023-03-15T15:02:15Z) - Personalized Privacy-Preserving Framework for Cross-Silo Federated
Learning [0.0]
Federated Learning(FL)は有望な分散ディープラーニング(DL)フレームワークであり、プライベートデータを共有することなく、クライアント間で共同でトレーニングされたDLベースのアプローチを可能にする。
本稿では,PPPFL(Personalized Privacy-Preserving Federated Learning)という新しいフレームワークを提案する。
提案するフレームワークは,MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100など,さまざまなデータセット上で複数のFLベースラインより優れている。
論文 参考訳(メタデータ) (2023-02-22T07:24:08Z) - Privately Customizing Prefinetuning to Better Match User Data in
Federated Learning [3.645000701985685]
Federated Learning (FL)では、プライベートクライアントデータにアクセスすると、通信とプライバシコストが発生する。
本稿では,FreD(Federated Private Fr'echet Distance)を提案する。
FreDが最小限のプライバシーコストで最適な事前調整データセットを正確に予測できることを実証的に示す。
論文 参考訳(メタデータ) (2023-02-17T18:18:22Z) - Federated Learning in Non-IID Settings Aided by Differentially Private
Synthetic Data [20.757477553095637]
Federated Learning(FL)は、クライアントが機械学習モデルを協調的にトレーニングすることを可能にする、プライバシプロモーティングフレームワークである。
連合学習における大きな課題は、局所データが不均一であるときに生じる。
我々は、クライアントが変動自動エンコーダをデプロイして、遅延データ表現の微分プライベートな手段を用いて、ローカルデータセットを合成するFLアルゴリズムであるFedDPMSを提案する。
論文 参考訳(メタデータ) (2022-06-01T18:00:48Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z) - Federated Mutual Learning [65.46254760557073]
Federated Mutual Leaning (FML)は、クライアントが汎用モデルとパーソナライズされたモデルを独立してトレーニングすることを可能にする。
実験により、FMLは一般的なフェデレート学習環境よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-06-27T09:35:03Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。