論文の概要: Truthful Incentive Mechanism for Federated Learning with Crowdsourced
Data Labeling
- arxiv url: http://arxiv.org/abs/2302.00106v1
- Date: Tue, 31 Jan 2023 21:14:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 13:52:55.205312
- Title: Truthful Incentive Mechanism for Federated Learning with Crowdsourced
Data Labeling
- Title(参考訳): クラウドソーシングデータラベリングによるフェデレーション学習のための真正なインセンティブメカニズム
- Authors: Yuxi Zhao, Xiaowen Gong, Shiwen Mao
- Abstract要約: FL(Federated Learning)は、クライアントのデータをFLサーバに送信することなく、クライアントのデバイス上で機械学習(ML)モデルを分散的にトレーニングする。
本研究では,FL をクラウドソースデータラベリングを用いて検討し,FL の各クライアントのローカルデータをクライアントが手動でラベル付けする。
我々は、戦略的クライアントに真の取り組みを動機付け、真のローカルモデルをサーバに報告する真正なインセンティブメカニズムを考案する。
- 参考スコア(独自算出の注目度): 23.57372647887674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has emerged as a promising paradigm that trains
machine learning (ML) models on clients' devices in a distributed manner
without the need of transmitting clients' data to the FL server. In many
applications of ML, the labels of training data need to be generated manually
by human agents. In this paper, we study FL with crowdsourced data labeling
where the local data of each participating client of FL are labeled manually by
the client. We consider the strategic behavior of clients who may not make
desired effort in their local data labeling and local model computation and may
misreport their local models to the FL server. We characterize the performance
bounds on the training loss as a function of clients' data labeling effort,
local computation effort, and reported local models. We devise truthful
incentive mechanisms which incentivize strategic clients to make truthful
efforts and report true local models to the server. The truthful design
exploits the non-trivial dependence of the training loss on clients' efforts
and local models. Under the truthful mechanisms, we characterize the server's
optimal local computation effort assignments. We evaluate the proposed FL
algorithms with crowdsourced data labeling and the incentive mechanisms using
experiments.
- Abstract(参考訳): FL(Federated Learning)は、クライアントのデータをFLサーバに送信することなく、クライアントのデバイス上で機械学習(ML)モデルを分散的にトレーニングする、有望なパラダイムとして登場した。
mlの多くのアプリケーションでは、トレーニングデータのラベルを人間のエージェントによって手動で生成する必要がある。
本稿では,FLの各クライアントのローカルデータをクライアントが手動でラベル付けするクラウドソースデータラベルを用いてFLについて検討する。
ローカルなデータラベリングやローカルなモデル計算を望まないクライアントの戦略的振る舞いを考慮し、ローカルなモデルをFLサーバに誤レポートする可能性がある。
我々は,クライアントのデータラベリング作業,局所計算作業,報告された局所モデルの関数として,トレーニング損失の性能限界を特徴付ける。
我々は、戦略的クライアントに真の取り組みを動機付け、真のローカルモデルをサーバに報告する真正なインセンティブメカニズムを考案する。
真面目な設計は、クライアントの努力とローカルモデルに対するトレーニング損失の非自明な依存を利用する。
真理的なメカニズムの下では、サーバの最適局所計算作業割り当てを特徴付ける。
クラウドソースデータラベリングを用いたFLアルゴリズムと実験によるインセンティブメカニズムの評価を行った。
関連論文リスト
- Modality Alignment Meets Federated Broadcasting [9.752555511824593]
フェデレートラーニング(FL)は、ローカルデータを集中化せずに、分散エッジデバイス間でモデルをトレーニングすることで、データのプライバシを保護する強力なアプローチとして登場した。
本稿では,テキストエンコーダをサーバ上に配置し,画像エンコーダをローカルデバイス上で動作させる,モダリティアライメントを利用した新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T13:30:03Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - REPA: Client Clustering without Training and Data Labels for Improved
Federated Learning in Non-IID Settings [1.69188400758521]
トレーニングもラベル付きデータ収集も不要な,IID以外のFL設定におけるクライアントクラスタリングのアプローチであるREPAを提案する。
REPAは、新しい教師付きオートエンコーダベースのメソッドを使用して、クライアントの基盤となるデータ生成プロセスをサーバに公開せず、ローカルなトレーニングを必要とせずにプロファイリングを生成する。
論文 参考訳(メタデータ) (2023-09-25T12:30:43Z) - Efficient Personalized Federated Learning via Sparse Model-Adaptation [47.088124462925684]
Federated Learning (FL)は、複数のクライアントに対して、独自のプライベートデータを共有せずに機械学習モデルをトレーニングすることを目的としている。
疎局所モデルを適応的かつ効率的に学習し,効率的なパーソナライズFLのためのpFedGateを提案する。
我々は,pFedGateが最先端手法よりも優れたグローバル精度,個人精度,効率性を同時に達成できることを示す。
論文 参考訳(メタデータ) (2023-05-04T12:21:34Z) - The Best of Both Worlds: Accurate Global and Personalized Models through
Federated Learning with Data-Free Hyper-Knowledge Distillation [17.570719572024608]
FedHKD (Federated Hyper-Knowledge Distillation) は、クライアントがローカルモデルを訓練するために知識蒸留に依存する新しいFLアルゴリズムである。
他のKDベースのpFLメソッドとは異なり、FedHKDはパブリックデータセットに依存したり、サーバに生成モデルをデプロイしたりしない。
さまざまなシナリオにおける視覚的データセットに関する広範な実験を行い、FedHKDがパーソナライズおよびグローバルモデルパフォーマンスの両方において、大幅な改善を提供することを示した。
論文 参考訳(メタデータ) (2023-01-21T16:20:57Z) - Knowledge-Aware Federated Active Learning with Non-IID Data [75.98707107158175]
本稿では,アノテーション予算に制限のあるグローバルモデルを効率的に学習するための,連合型アクティブラーニングパラダイムを提案する。
フェデレートされたアクティブラーニングが直面する主な課題は、サーバ上のグローバルモデルのアクティブサンプリング目標と、ローカルクライアントのアクティブサンプリング目標とのミスマッチである。
本稿では,KSAS (Knowledge-Aware Federated Active Learning) とKCFU (Knowledge-Compensatory Federated Update) を組み合わせた,知識対応型アクティブ・ラーニング(KAFAL)を提案する。
論文 参考訳(メタデータ) (2022-11-24T13:08:43Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Data Selection for Efficient Model Update in Federated Learning [0.07614628596146598]
本稿では,グローバルモデルのトレーニングに必要なローカルデータの量を削減することを提案する。
本手法では, 局所データの特徴により敏感な部分と, 一般特徴抽出のための下位部分と, 上位部分とにモデルを分割する。
実験の結果,クライアントデータの特徴をグローバルモデルに転送できる地域データは1%未満であることがわかった。
論文 参考訳(メタデータ) (2021-11-05T14:07:06Z) - Tackling the Local Bias in Federated Graph Learning [48.887310972708036]
フェデレーショングラフ学習(FGL)では、グローバルグラフは異なるクライアントに分散し、各クライアントがサブグラフを保持する。
既存のFGL手法では、クロスクライアントエッジを効果的に活用できず、トレーニング中に構造情報が失われる。
集中型環境で訓練されたモデルと類似した局所モデルを作成するための新しいFGLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。