論文の概要: Self-Interested Agents in Collaborative Learning: An Incentivized Adaptive Data-Centric Framework
- arxiv url: http://arxiv.org/abs/2412.06597v2
- Date: Wed, 11 Dec 2024 16:28:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:01:48.455626
- Title: Self-Interested Agents in Collaborative Learning: An Incentivized Adaptive Data-Centric Framework
- Title(参考訳): 協調学習における自己関心エージェント--適応型データ中心フレームワークのインセンティブ
- Authors: Nithia Vijayan, Bryan Kian Hsiang Low,
- Abstract要約: 本稿では,データ中心型協調学習フレームワークを提案する。
各ステップで、arbiterはエージェントからデータのバッチを収集し、マシンラーニングモデルをトレーニングし、各エージェントにデータコントリビューションを反映する独自のモデルを提供する。
この設定は、共有データ影響モデルの更新を行うフィードバックループを確立し、結果のモデルが将来のデータ共有戦略をガイドする。
- 参考スコア(独自算出の注目度): 34.19393519060549
- License:
- Abstract: We propose a framework for adaptive data-centric collaborative learning among self-interested agents, coordinated by an arbiter. Designed to handle the incremental nature of real-world data, the framework operates in an online manner: at each step, the arbiter collects a batch of data from agents, trains a machine learning model, and provides each agent with a distinct model reflecting its data contributions. This setup establishes a feedback loop where shared data influence model updates, and the resulting models guide future data-sharing strategies. Agents evaluate and partition their data, selecting a partition to share using a stochastic parameterized policy optimized via policy gradient methods to optimize the utility of the received model as defined by agent-specific evaluation functions. On the arbiter side, the expected loss function over the true data distribution is optimized, incorporating agent-specific weights to account for distributional differences arising from diverse sources and selective sharing. A bilevel optimization algorithm jointly learns the model parameters and agent-specific weights. Mean-zero noise, computed using a distortion function that adjusts these agent-specific weights, is introduced to generate distinct agent-specific models, promoting valuable data sharing without requiring separate training. Our framework is underpinned by non-asymptotic analyses, ensuring convergence of the agent-side policy optimization to an approximate stationary point of the evaluation functions and convergence of the arbiter-side optimization to an approximate stationary point of the expected loss function.
- Abstract(参考訳): 本稿では,データ中心型協調学習フレームワークを提案する。
各ステップで、arbiterはエージェントからデータのバッチを収集し、マシンラーニングモデルをトレーニングし、各エージェントにデータコントリビューションを反映した独自のモデルを提供する。
この設定は、共有データ影響モデルの更新を行うフィードバックループを確立し、結果のモデルが将来のデータ共有戦略をガイドする。
エージェントはデータを評価および分割し、エージェント固有の評価関数によって定義された受信モデルの有用性を最適化するためにポリシー勾配法によって最適化された確率的パラメータ化ポリシーを使用して、共有するパーティションを選択する。
アービター側では、エージェント固有の重みを取り入れて、多様なソースから生じる分布差と選択的な共有を考慮し、真のデータ分布に対する期待損失関数を最適化する。
二段階最適化アルゴリズムはモデルパラメータとエージェント固有の重みを共同で学習する。
これらのエージェント固有の重みを調整する歪み関数を用いて計算される平均ゼロノイズは、エージェント固有の異なるモデルを生成するために導入され、個別のトレーニングを必要とせず、貴重なデータ共有を促進する。
提案手法は,非漸近解析,エージェント側ポリシ最適化の近似定常点への収束,およびアービタ側最適化の予測損失関数の近似定常点への収束を保証する。
関連論文リスト
- A decision-theoretic model for a principal-agent collaborative learning problem [0.0]
本稿では,主成分が適切な凝集係数の集合を決定する主成分設定を伴う協調学習フレームワークについて考察する。
提案したフレームワークは安定性と一般化の点でいくつかの利点があるが、主役とエージェントは必ずしもサンプル分布や互いのデータセットの品質を知る必要はない。
論文 参考訳(メタデータ) (2024-09-24T13:08:51Z) - Bridging and Modeling Correlations in Pairwise Data for Direct Preference Optimization [75.1240295759264]
本稿では,BMC という名前のペアデータにおけるブリッジ・アンド・モデリングの効果的なフレームワークを提案する。
目的の修正によって、ペアの選好信号の一貫性と情報性が向上する。
DPOだけではこれらの相関をモデル化し、ニュアンス付き変動を捉えるには不十分である。
論文 参考訳(メタデータ) (2024-08-14T11:29:47Z) - Distributed Personalized Empirical Risk Minimization [19.087524494290676]
本稿では、異種データからの学習を容易にするために、新たなパラダイムであるPersonalized Empirical Risk Minimization(PERM)を提案する。
本稿では,標準モデル平均化をモデルシャッフルに置き換えた分散アルゴリズムを提案し,すべてのデバイスに対してPERM目標を同時に最適化する。
論文 参考訳(メタデータ) (2023-10-26T20:07:33Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Compressed Regression over Adaptive Networks [58.79251288443156]
分散エージェントのネットワークによって達成可能な性能を導出し,通信制約や回帰問題を解消し,適応的に解決する。
エージェントによって最適化に必要なパラメータをオンラインで学習できる最適化アロケーション戦略を考案する。
論文 参考訳(メタデータ) (2023-04-07T13:41:08Z) - Federated Learning for Heterogeneous Bandits with Unobserved Contexts [0.0]
我々は、未知のコンテキストを持つ多腕コンテキスト包帯のフェデレーション問題について検討する。
線形パラメタライズされた報酬関数に対して,除去に基づくアルゴリズムを提案し,後悔の束縛を証明した。
論文 参考訳(メタデータ) (2023-03-29T22:06:24Z) - Adaptive Sampling Strategies to Construct Equitable Training Datasets [0.7036032466145111]
コンピュータビジョンから自然言語処理までの領域では、機械学習モデルがスタークの相違を示すことが示されている。
これらのパフォーマンスギャップに寄与する要因の1つは、モデルがトレーニングしたデータに表現力の欠如である。
公平なトレーニングデータセットを作成する際の問題を形式化し、この問題に対処するための統計的枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-31T19:19:30Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。