論文の概要: Cali3F: Calibrated Fast Fair Federated Recommendation System
- arxiv url: http://arxiv.org/abs/2205.13121v1
- Date: Thu, 26 May 2022 03:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 14:56:07.103146
- Title: Cali3F: Calibrated Fast Fair Federated Recommendation System
- Title(参考訳): cali3f:キャリブレーション・ファストフェアフェデレーション・レコメンデーション・システム
- Authors: Zhitao Zhu, Shijing Si, Jianzong Wang, Jing Xiao
- Abstract要約: 提案手法は,推薦性能の公平性を改善するために,パーソナライズされた推薦システムトレーニングアルゴリズムを提案する。
次に、トレーニングプロセスの高速化のためにクラスタリングベースのアグリゲーション手法を採用する。
Cali3Fは、キャリブレーションされた高速かつ公正なフェデレーションレコメンデーションフレームワークである。
- 参考スコア(独自算出の注目度): 25.388324221293203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasingly stringent regulations on privacy protection have sparked
interest in federated learning. As a distributed machine learning framework, it
bridges isolated data islands by training a global model over devices while
keeping data localized. Specific to recommendation systems, many federated
recommendation algorithms have been proposed to realize the privacy-preserving
collaborative recommendation. However, several constraints remain largely
unexplored. One big concern is how to ensure fairness between participants of
federated learning, that is, to maintain the uniformity of recommendation
performance across devices. On the other hand, due to data heterogeneity and
limited networks, additional challenges occur in the convergence speed. To
address these problems, in this paper, we first propose a personalized
federated recommendation system training algorithm to improve the
recommendation performance fairness. Then we adopt a clustering-based
aggregation method to accelerate the training process. Combining the two
components, we proposed Cali3F, a calibrated fast and fair federated
recommendation framework. Cali3F not only addresses the convergence problem by
a within-cluster parameter sharing approach but also significantly boosts
fairness by calibrating local models with the global model. We demonstrate the
performance of Cali3F across standard benchmark datasets and explore the
efficacy in comparison to traditional aggregation approaches.
- Abstract(参考訳): プライバシー保護に関する規制が厳しくなり、連邦学習への関心が高まった。
分散機械学習フレームワークとして、データローカライズを維持しながら、デバイス上でグローバルモデルをトレーニングすることで、分離されたデータ島を橋渡しする。
推奨システムに特有な,プライバシ保存協調型推薦を実現するために,多数の連帯推奨アルゴリズムが提案されている。
しかし、いくつかの制約は未解決のままである。
ひとつの大きな懸念は、フェデレーション学習の参加者間の公平性を保証する方法、すなわちデバイス間でのレコメンデーションパフォーマンスの均一性を維持する方法だ。
一方,データの不均一性とネットワークの制限により,収束速度に新たな課題が生じる。
そこで本稿では,まず,推薦性能の公平性を改善するために,個人化された推薦システムトレーニングアルゴリズムを提案する。
次に,クラスタリングに基づくアグリゲーション手法を適用し,トレーニングプロセスを高速化する。
この2つのコンポーネントを組み合わせることで、キャリブレーションされた高速かつ公正なフェデレーションレコメンデーションフレームワークであるCali3Fを提案しました。
cali3fはクラスタ内パラメータ共有アプローチによる収束問題に対処するだけでなく、局所モデルをグローバルモデルで校正することで公平性を大幅に向上させる。
標準ベンチマークデータセット間でCali3Fの性能を実証し、従来のアグリゲーションアプローチと比較して有効性を検討した。
関連論文リスト
- Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - A-FedPD: Aligning Dual-Drift is All Federated Primal-Dual Learning Needs [57.35402286842029]
本稿では,グローバルクライアントとローカルクライアントの仮想二重配向を構成する新しいアラインドデュアルデュアル(A-FedPD)手法を提案する。
本稿では,A-FedPD方式の非集中型セキュリティコンセンサスに対する効率を包括的に分析する。
論文 参考訳(メタデータ) (2024-09-27T17:00:32Z) - Beyond Similarity: Personalized Federated Recommendation with Composite Aggregation [22.359428566363945]
フェデレーションレコメンデーションは、大規模なデバイスからローカルモデルを集約することで、グローバルな知識を集めることを目的としている。
現在の手法は主に、連合視覚コミュニティによって発明された集約関数を利用して、類似したクライアントからのパラメータを集約する。
複合アグリゲーション(FedCA)を用いたパーソナライズド・フェデレーション・レコメンデーション・モデルを提案する。
論文 参考訳(メタデータ) (2024-06-06T10:17:52Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Machine Unlearning of Federated Clusters [36.663892269484506]
フェデレーションクラスタリング(Federated Clustering)は、パーソナライズされたレコメンデータや医療システムなど、多くの実践的なアプリケーションで発生する、教師なしの学習問題である。
FCにおける機械学習の課題を初めて紹介する。
カスタマイズされたセキュアなFCフレームワークのための効率的なアンラーニング機構を提案する。
論文 参考訳(メタデータ) (2022-10-28T22:21:29Z) - FedSPLIT: One-Shot Federated Recommendation System Based on Non-negative
Joint Matrix Factorization and Knowledge Distillation [7.621960305708476]
我々はNMF結合因子化に基づく最初の教師なしワンショットフェデレーションCF実装であるFedSPLITを提案する。
FedSPLITは、コミュニケーションの数を大幅に減らすことで、技術の現状と類似した結果を得ることができる(特定の状況では、それよりも優れている)。
論文 参考訳(メタデータ) (2022-05-04T23:42:14Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Federated Self-Supervised Contrastive Learning via Ensemble Similarity
Distillation [42.05438626702343]
本稿では,未ラベルのクライアントデータによる良好な表現空間の学習の実現可能性について検討する。
本稿では,アーキテクチャに依存しないローカルトレーニングとコミュニケーション効率のよいグローバルアグリゲーションをサポートする,自己指導型コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-29T02:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。