論文の概要: Fair yet Asymptotically Equal Collaborative Learning
- arxiv url: http://arxiv.org/abs/2306.05764v1
- Date: Fri, 9 Jun 2023 08:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 13:57:56.832521
- Title: Fair yet Asymptotically Equal Collaborative Learning
- Title(参考訳): 公正かつ漸近的に平等な協調学習
- Authors: Xiaoqiang Lin, Xinyi Xu, See-Kiong Ng, Chuan-Sheng Foo, Bryan Kian
Hsiang Low
- Abstract要約: ストリーミングデータとのコラボレーティブな学習において、ノードは最新のストリーミングデータから計算された最新のモデル更新を共有することによって、機械学習(ML)モデルを共同で継続的に学習する。
本稿では,ノードに報酬が与えられるように公平性を保証するインセンティブ設計について検討する。
実世界のストリーミングデータを用いた実証実験により,提案手法は,等価性を維持する上で競争力を維持しつつ,既存のベースラインを公平性と学習性能で上回ることを示す。
- 参考スコア(独自算出の注目度): 32.588043205577435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In collaborative learning with streaming data, nodes (e.g., organizations)
jointly and continuously learn a machine learning (ML) model by sharing the
latest model updates computed from their latest streaming data. For the more
resourceful nodes to be willing to share their model updates, they need to be
fairly incentivized. This paper explores an incentive design that guarantees
fairness so that nodes receive rewards commensurate to their contributions. Our
approach leverages an explore-then-exploit formulation to estimate the nodes'
contributions (i.e., exploration) for realizing our theoretically guaranteed
fair incentives (i.e., exploitation). However, we observe a "rich get richer"
phenomenon arising from the existing approaches to guarantee fairness and it
discourages the participation of the less resourceful nodes. To remedy this, we
additionally preserve asymptotic equality, i.e., less resourceful nodes achieve
equal performance eventually to the more resourceful/"rich" nodes. We
empirically demonstrate in two settings with real-world streaming data:
federated online incremental learning and federated reinforcement learning,
that our proposed approach outperforms existing baselines in fairness and
learning performance while remaining competitive in preserving equality.
- Abstract(参考訳): ストリーミングデータとの協調学習において、ノード(例えば組織)は最新のストリーミングデータから計算された最新のモデル更新を共有することで、共同で機械学習(ML)モデルを継続的に学習する。
よりリソースの豊富なノードがモデルのアップデートを積極的に共有するためには、かなりインセンティブが必要です。
本稿では,ノードに報酬が与えられるように公平性を保証するインセンティブ設計を提案する。
我々のアプローチは、理論的に保証された公平なインセンティブ(すなわち搾取)を実現するために、ノードの貢献(すなわち探索)を見積もるためにexplore-then-exploit形式を利用する。
しかし、公平性を保証する既存のアプローチから生じる「リッチ・ゲット・リッチ」現象を観察し、よりリソースの少ないノードの参加を妨げている。
これに対処するため、我々はさらに漸近的等式、すなわち、リソースの少ないノードは、最終的によりリソースの豊富なノードに対して同等のパフォーマンスを達成する。
フェデレーションオンラインインクリメンタル学習(federated online incremental learning)とフェデレーション強化学習(federated reinforcement learning)という,実世界のストリーミングデータを用いた2つの設定で実証を行った。
関連論文リスト
- R3HF: Reward Redistribution for Enhancing Reinforcement Learning from Human Feedback [25.27230140274847]
人間のフィードバックからの強化学習(RLHF)は、大きな言語モデル(LLM)を人間の好みに合わせるためのパラダイムを提供する。
本稿では,より微細なトークンレベルの報酬配分を容易にするR3HFという新たな報酬分配手法を提案する。
論文 参考訳(メタデータ) (2024-11-13T02:45:21Z) - Transductive Reward Inference on Graph [53.003245457089406]
本稿では,グラフ上の情報伝達の文脈特性に基づく報酬推定手法を提案する。
利用可能なデータと限定的な報酬アノテーションの両方を活用して、報酬伝達グラフを構築します。
構築したグラフをトランスダクティブな報酬推定に使用し,非競合データに対する報酬を推定する。
論文 参考訳(メタデータ) (2024-02-06T03:31:28Z) - Reward-Directed Conditional Diffusion: Provable Distribution Estimation
and Reward Improvement [42.45888600367566]
Directed Generationは、報酬関数によって測定された望ましい特性を持つサンプルを生成することを目的としている。
我々は、データセットがラベルのないデータと、ノイズの多い報酬ラベルを持つ小さなデータセットから構成される一般的な学習シナリオを考察する。
論文 参考訳(メタデータ) (2023-07-13T20:20:40Z) - Incentivizing Honesty among Competitors in Collaborative Learning and
Optimization [5.4619385369457225]
協調学習技術は、単一のエンティティのデータでトレーニングされたモデルよりも優れた機械学習モデルを可能にする可能性がある。
多くの場合、このような協調的なスキームの潜在的な参加者は、下流のタスクで競合する。
論文 参考訳(メタデータ) (2023-05-25T17:28:41Z) - Generative Augmented Flow Networks [88.50647244459009]
GFlowNetsに中間報酬を組み込むためにGAFlowNets(Generative Augmented Flow Networks)を提案する。
GAFlowNetsは、エッジベースとステートベース固有の報酬を共同で活用して、探索を改善することができる。
論文 参考訳(メタデータ) (2022-10-07T03:33:56Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Incentivizing Federated Learning [2.420324724613074]
本稿では,顧客に対して可能な限り多くのデータ提供を促すインセンティブメカニズムを提案する。
従来のインセンティブメカニズムとは異なり、私たちのアプローチはデータを収益化しません。
理論的には、ある条件下では、クライアントがフェデレーション学習に参加できる限り多くのデータを使用することを証明します。
論文 参考訳(メタデータ) (2022-05-22T23:02:43Z) - Incentive Mechanism Design for Resource Sharing in Collaborative Edge
Learning [106.51930957941433]
5GとBeyondネットワークでは、人工知能のアプリケーションがますます普及すると予想されている。
これは、現在のクラウド中心のモデルトレーニングアプローチから、エッジラーニングとして知られるエッジコンピューティングベースの協調学習スキームへのパラダイムシフトを必要とする。
論文 参考訳(メタデータ) (2020-05-31T12:45:06Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。