論文の概要: WallStreetFeds: Client-Specific Tokens as Investment Vehicles in Federated Learning
- arxiv url: http://arxiv.org/abs/2506.20518v1
- Date: Wed, 25 Jun 2025 15:05:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.804657
- Title: WallStreetFeds: Client-Specific Tokens as Investment Vehicles in Federated Learning
- Title(参考訳): WallStreetFeds:フェデレートラーニングにおける投資車両としてのクライアント特有のトークン
- Authors: Arno Geimer, Beltran Fiz Pontiveros, Radu State,
- Abstract要約: フェデレーテッド・ラーニング(FL)は、参加者がデータをプライベートに保ちながらモデルを集合的にトレーニングすることを可能にする、コラボレーティブな機械学習パラダイムである。
本稿では,FLエコシステム内の投資車両としてクライアント固有のトークンを導入する新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.827018440608344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a collaborative machine learning paradigm which allows participants to collectively train a model while training data remains private. This paradigm is especially beneficial for sectors like finance, where data privacy, security and model performance are paramount. FL has been extensively studied in the years following its introduction, leading to, among others, better performing collaboration techniques, ways to defend against other clients trying to attack the model, and contribution assessment methods. An important element in for-profit Federated Learning is the development of incentive methods to determine the allocation and distribution of rewards for participants. While numerous methods for allocation have been proposed and thoroughly explored, distribution frameworks remain relatively understudied. In this paper, we propose a novel framework which introduces client-specific tokens as investment vehicles within the FL ecosystem. Our framework aims to address the limitations of existing incentive schemes by leveraging a decentralized finance (DeFi) platform and automated market makers (AMMs) to create a more flexible and scalable reward distribution system for participants, and a mechanism for third parties to invest in the federation learning process.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、参加者がデータをプライベートに保ちながらモデルを集合的にトレーニングすることを可能にする、コラボレーティブな機械学習パラダイムである。
このパラダイムは、データプライバシ、セキュリティ、モデルパフォーマンスが最重要である金融などの分野にとって特に有益だ。
FLは導入後、数年にわたって広く研究され、コラボレーション技術の向上、モデルに攻撃しようとする他のクライアントに対する防御方法、コントリビューションアセスメントメソッドなどを実現している。
非営利のフェデレートラーニングにおける重要な要素は、参加者に対する報酬の配分と分配を決定するインセンティブ手法の開発である。
割り当てのための多くの手法が提案され、徹底的に検討されているが、分散フレームワークは比較的検討が続けられている。
本稿では,FLエコシステム内の投資車両としてクライアント固有のトークンを導入する新しいフレームワークを提案する。
本フレームワークは、分散金融(DeFi)プラットフォームと自動市場メーカ(AMM)を活用して、参加者に対してより柔軟でスケーラブルな報酬配信システムを構築することにより、既存のインセンティブ制度の限界に対処することを目的としており、サードパーティがフェデレーション学習プロセスに投資するためのメカニズムである。
関連論文リスト
- Incentivizing Inclusive Contributions in Model Sharing Markets [47.66231950174746]
本稿では,包括的でインセンティブの高い個人化フェデレーション学習(iPFL)を提案する。
iPFLは、データを公開せずにパーソナライズされたモデルを協調的にトレーニングするために、さまざまな目的でデータホルダーにインセンティブを与える。
11のAIタスクに関する実証研究は、iPFLが常に最高の経済効果を達成していることを示している。
論文 参考訳(メタデータ) (2025-05-05T08:45:26Z) - Blockchain-based Framework for Scalable and Incentivized Federated Learning [0.820828081284034]
フェデレートラーニング(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にし、分散データセットを活用しながらプライバシを保存する。
従来のFLシステムは、信頼の問題や単一障害点の導入、有意義なクライアントコントリビューションのインセンティブの制限といった、集中的な集約メカニズムに依存しています。
本稿では、スマートコントラクトと新しいハイブリッドインセンティブ機構を統合することにより、これらの制限に対処するブロックチェーンベースのFLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-20T00:38:35Z) - On the Volatility of Shapley-Based Contribution Metrics in Federated Learning [1.827018440608344]
フェデレートラーニング(Federated Learning, FL)は、協調型およびプライバシ保護型機械学習パラダイムである。
不正確なコントリビューションの割り当ては、信頼を損なう可能性があり、不公平な報酬につながるため、参加者は連合への参加や積極的に貢献するインセンティブを欠く可能性がある。
集約戦略の集合において,Shapley値の相違点を広範囲に分析し,全体的および各クライアントレベルで検証する。
論文 参考訳(メタデータ) (2024-05-13T13:55:34Z) - An Auction-based Marketplace for Model Trading in Federated Learning [54.79736037670377]
フェデレートラーニング(FL)は、局所的な分散データを用いたトレーニングモデルにおいて、その効果がますます認識されている。
FLはモデルのマーケットプレースであり、顧客は買い手と売り手の両方として振る舞う。
本稿では,性能向上に基づく適切な価格設定を実現するため,オークションベースのソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-02T07:25:53Z) - Welfare and Fairness Dynamics in Federated Learning: A Client Selection
Perspective [1.749935196721634]
Federated Learning(FL)は、分散コンピューティングデバイスが共有学習モデルのトレーニングを可能にする、プライバシ保護学習技術である。
公正さやインセンティブといった顧客に対する経済的配慮は、まだ完全には検討されていない。
低品質なクライアントを除去するためのクライアント選択プロセスと、公正な報酬配分を保証するための送金プロセスを含む、新たなインセンティブ機構を提案する。
論文 参考訳(メタデータ) (2023-02-17T16:31:19Z) - Adaptive incentive for cross-silo federated learning: A multi-agent
reinforcement learning approach [12.596779831510508]
クロスサイロ・フェデレーション・ラーニング(FL)は、組織が独立したデータに基づいてグローバルモデルをトレーニングすることを可能にする。
組織にデータ提供を動機付けるための,クロスサイロFLの新しい適応機構を提案する。
論文 参考訳(メタデータ) (2023-02-15T06:45:35Z) - FedToken: Tokenized Incentives for Data Contribution in Federated
Learning [33.93936816356012]
ブロックチェーン技術を基盤として,コントリビューションベースのトークン化インセンティブスキームである textttFedToken を提案する。
まず、モデル集約中の局所モデルの寄与を近似し、次に、クライアントが収束のために通信ラウンドを下げる戦略的スケジュールを立てる。
論文 参考訳(メタデータ) (2022-09-20T14:58:08Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - An Incentive Mechanism for Federated Learning in Wireless Cellular
network: An Auction Approach [75.08185720590748]
Federated Learning(FL)は、機械学習の分散問題に対処できる分散学習フレームワークである。
本稿では,1つの基地局(BS)と複数のモバイルユーザを含むFLシステムについて考察する。
我々は,BSとモバイルユーザの間のインセンティブメカニズムを,BSが競売業者であり,モバイルユーザが売り手であるオークションゲームとして定式化する。
論文 参考訳(メタデータ) (2020-09-22T01:50:39Z) - LotteryFL: Personalized and Communication-Efficient Federated Learning
with Lottery Ticket Hypothesis on Non-IID Datasets [52.60094373289771]
フェデレーション学習は、プライバシーを強化した、人気のある分散機械学習パラダイムである。
パーソナライズされたコミュニケーション効率の高いフェデレーション学習フレームワークであるLotteryFLを提案する。
LotteryFLはパーソナライズと通信コストの点で既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2020-08-07T20:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。