論文の概要: Incentivizing Inclusive Contributions in Model Sharing Markets
- arxiv url: http://arxiv.org/abs/2505.02462v1
- Date: Mon, 05 May 2025 08:45:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.605522
- Title: Incentivizing Inclusive Contributions in Model Sharing Markets
- Title(参考訳): モデル共有市場における包括的貢献のインセンティブ
- Authors: Enpei Zhang, Jingyi Chai, Rui Ye, Yanfeng Wang, Siheng Chen,
- Abstract要約: 本稿では,包括的でインセンティブの高い個人化フェデレーション学習(iPFL)を提案する。
iPFLは、データを公開せずにパーソナライズされたモデルを協調的にトレーニングするために、さまざまな目的でデータホルダーにインセンティブを与える。
11のAIタスクに関する実証研究は、iPFLが常に最高の経済効果を達成していることを示している。
- 参考スコア(独自算出の注目度): 47.66231950174746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While data plays a crucial role in training contemporary AI models, it is acknowledged that valuable public data will be exhausted in a few years, directing the world's attention towards the massive decentralized private data. However, the privacy-sensitive nature of raw data and lack of incentive mechanism prevent these valuable data from being fully exploited. Addressing these challenges, this paper proposes inclusive and incentivized personalized federated learning (iPFL), which incentivizes data holders with diverse purposes to collaboratively train personalized models without revealing raw data. iPFL constructs a model-sharing market by solving a graph-based training optimization and incorporates an incentive mechanism based on game theory principles. Theoretical analysis shows that iPFL adheres to two key incentive properties: individual rationality and truthfulness. Empirical studies on eleven AI tasks (e.g., large language models' instruction-following tasks) demonstrate that iPFL consistently achieves the highest economic utility, and better or comparable model performance compared to baseline methods. We anticipate that our iPFL can serve as a valuable technique for boosting future AI models on decentralized private data while making everyone satisfied.
- Abstract(参考訳): データは現代のAIモデルのトレーニングにおいて重要な役割を担っているが、数年のうちに価値ある公開データが枯渇し、世界が巨大な分散化されたプライベートデータに注意を向けることが認識されている。
しかし、生データのプライバシーに敏感な性質とインセンティブの欠如は、これらの貴重なデータが完全に活用されることを防ぐ。
これらの課題に対処するため、本論文では、データ保有者が生データを明らかにすることなく、パーソナライズされたモデルを協調的にトレーニングするインセンティブを付与する、包括的でインセンティブ付きパーソナライズド・フェデレーションド・ラーニング(iPFL)を提案する。
iPFLは、グラフベースのトレーニング最適化を解くことで、モデル共有市場を構築し、ゲーム理論の原理に基づくインセンティブメカニズムを組み込む。
理論的解析により、iPFLは2つの重要な動機性、すなわち、個々人の合理性と真理性に固執していることが示されている。
11のAIタスク(例えば、大規模言語モデルの命令追従タスク)に関する実証研究は、iPFLがベースライン手法と比較して、常に最高の経済的有用性、より良い、または同等のモデルパフォーマンスを達成していることを示している。
当社のiPFLは、分散化されたプライベートデータ上で将来のAIモデルを向上し、全員を満足させる上で、貴重なテクニックになることを期待しています。
関連論文リスト
- Advancing Personalized Federated Learning: Integrative Approaches with AI for Enhanced Privacy and Customization [0.0]
本稿では,最先端AI技術を用いてPFLを強化する新しい手法を提案する。
本稿では、個々のクライアントモデルの性能を高め、堅牢なプライバシ保護機構を保証するモデルを提案する。
この研究は、真のパーソナライズされたプライバシを重視したAIシステムの新たな時代への道を開くものだ。
論文 参考訳(メタデータ) (2025-01-30T07:03:29Z) - Data Assetization via Resources-decoupled Federated Learning [7.347554648348435]
フェデレートラーニング(FL)は、プライバシーを維持しながら協調トレーニングモデルに効果的なアプローチを提供する。
まず,3つの関係者を巻き込んだ資源分離FLの枠組みを提案する。
次に,QD-RDFL(Quality-Aware Dynamic Resources-Decoupled FL Algorithm)を提案する。
論文 参考訳(メタデータ) (2025-01-24T15:49:04Z) - FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - Secrets of RLHF in Large Language Models Part II: Reward Modeling [134.97964938009588]
本稿では,データセットにおける不正確で曖昧な嗜好の影響を軽減するために,一連の新しい手法を紹介する。
また、選択された応答と拒否された応答を区別する報酬モデルの有用性を高めるために、対照的な学習を導入する。
論文 参考訳(メタデータ) (2024-01-11T17:56:59Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - Towards Interpretable Federated Learning [19.764172768506132]
フェデレートラーニング(FL)は、複数のデータ所有者が、プライベートなローカルデータを公開せずに、協調して機械学習モデルを構築することを可能にする。
特に金融や医療といったミッションクリティカルなアプリケーションにおいて、パフォーマンス、プライバシ保護、解釈可能性の必要性のバランスをとることが重要です。
我々は、代表的IFL手法、一般的に採用されている性能評価指標、多目的IFL技術構築に向けた有望な方向性を包括的に分析する。
論文 参考訳(メタデータ) (2023-02-27T02:06:18Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Incentive Mechanisms for Federated Learning: From Economic and Game
Theoretic Perspective [42.50367925564069]
フェデレートラーニング(FL)は、所有者の生データを公開せずに、大規模機械学習(ML)モデルをトレーニングする大きな可能性を示している。
FLでは、データ所有者は、ローカルデータに基づいてMLモデルをトレーニングすることができ、モデルの所有者に生データではなくモデル更新を送信してアグリゲーションを行うことができる。
モデル精度とトレーニング完了時間の観点から学習性能を向上させるためには,十分な参加者を募集することが不可欠である。
論文 参考訳(メタデータ) (2021-11-20T07:22:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。