論文の概要: Incentivizing Time-Aware Fairness in Data Sharing
- arxiv url: http://arxiv.org/abs/2510.09240v1
- Date: Fri, 10 Oct 2025 10:29:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.699994
- Title: Incentivizing Time-Aware Fairness in Data Sharing
- Title(参考訳): データ共有における時間意識フェアネスのインセンティブ
- Authors: Jiangwei Chen, Kieu Thao Nguyen Pham, Rachael Hwee Ling Sim, Arun Verma, Zhaoxuan Wu, Chuan-Sheng Foo, Bryan Kian Hsiang Low,
- Abstract要約: 協調的なデータ共有と機械学習では、複数のパーティがデータリソースを集約して、よりよいパフォーマンスで機械学習モデルをトレーニングする。
既存のフレームワークでは、すべての関係者が同時にコラボレーションに参加すると仮定しています。
我々は、新しいタイムアウェアインセンティブを含む、公正でタイムアウェアなデータ共有フレームワークを提案する。
- 参考スコア(独自算出の注目度): 73.83854445472149
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In collaborative data sharing and machine learning, multiple parties aggregate their data resources to train a machine learning model with better model performance. However, as the parties incur data collection costs, they are only willing to do so when guaranteed incentives, such as fairness and individual rationality. Existing frameworks assume that all parties join the collaboration simultaneously, which does not hold in many real-world scenarios. Due to the long processing time for data cleaning, difficulty in overcoming legal barriers, or unawareness, the parties may join the collaboration at different times. In this work, we propose the following perspective: As a party who joins earlier incurs higher risk and encourages the contribution from other wait-and-see parties, that party should receive a reward of higher value for sharing data earlier. To this end, we propose a fair and time-aware data sharing framework, including novel time-aware incentives. We develop new methods for deciding reward values to satisfy these incentives. We further illustrate how to generate model rewards that realize the reward values and empirically demonstrate the properties of our methods on synthetic and real-world datasets.
- Abstract(参考訳): 協調的なデータ共有と機械学習では、複数のパーティがデータリソースを集約して、より優れたモデルパフォーマンスで機械学習モデルをトレーニングする。
しかし、当事者はデータ収集コストを発生させるため、公正性や個人の合理性といったインセンティブが保証された場合にのみ、データ収集を行う。
既存のフレームワークでは、すべての関係者が同時にコラボレーションに参加すると仮定しています。
データクリーニングの長い処理時間、法的障壁の克服の困難、あるいは無意識のため、当事者は異なるタイミングで協力に参加することができる。
本研究は, 早期に高いリスクを負い, 他の待ち行列からの貢献を奨励する当事者として, その当事者は, データの共有において高い価値の報酬を受けるべきである,という考え方を提案する。
そこで本稿では,新たなタイムアウェアインセンティブを含む,公正かつタイムアウェアなデータ共有フレームワークを提案する。
我々はこれらのインセンティブを満たすために報酬値を決定する新しい方法を開発した。
さらに、報酬値を実現するモデル報酬の生成方法と、合成および実世界のデータセット上での手法の特性を実証的に示す。
関連論文リスト
- Mechanisms for Data Sharing in Collaborative Causal Inference (Extended Version) [2.709511652792003]
本稿では,共通学習課題に対する各当事者のデータ貢献度を評価するための評価手法を提案する。
データの品質に応じてエージェントを公平に報酬するために、あるいはすべてのエージェントのデータコントリビューションを最大化するために利用することができる。
論文 参考訳(メタデータ) (2024-07-04T14:32:32Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - Incentives in Private Collaborative Machine Learning [56.84263918489519]
コラボレーション型機械学習は、複数のパーティのデータに基づいてモデルをトレーニングする。
インセンティブとして差分プライバシー(DP)を導入する。
合成および実世界のデータセットに対するアプローチの有効性と実用性を実証的に実証した。
論文 参考訳(メタデータ) (2024-04-02T06:28:22Z) - Mechanisms that Incentivize Data Sharing in Federated Learning [90.74337749137432]
我々は、データ共有の利点が完全に損なわれているような、ナイーブなスキームが破滅的なフリーライディングのレベルにどのように結びつくかを示す。
次に,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
論文 参考訳(メタデータ) (2022-07-10T22:36:52Z) - Incentivizing Federated Learning [2.420324724613074]
本稿では,顧客に対して可能な限り多くのデータ提供を促すインセンティブメカニズムを提案する。
従来のインセンティブメカニズムとは異なり、私たちのアプローチはデータを収益化しません。
理論的には、ある条件下では、クライアントがフェデレーション学習に参加できる限り多くのデータを使用することを証明します。
論文 参考訳(メタデータ) (2022-05-22T23:02:43Z) - Incentivizing Collaboration in Machine Learning via Synthetic Data
Rewards [26.850070556844628]
本稿では、データ提供に利害関係者間の協調を動機付ける新しい協調生成モデリング(CGM)フレームワークを提案する。
合成データを報酬として分配することは、下流の学習タスクにタスクとモデルに依存しない利点を提供する。
論文 参考訳(メタデータ) (2021-12-17T05:15:30Z) - Data Sharing Markets [95.13209326119153]
我々は、各エージェントがデータの買い手および売り手の両方になり得る設定について検討する。
両データ交換(データ付きトレーディングデータ)と一方データ交換(お金付きトレーディングデータ)の2つの事例を考察する。
論文 参考訳(メタデータ) (2021-07-19T06:00:34Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Collaborative Machine Learning with Incentive-Aware Model Rewards [32.43927226170119]
コラボレーティブ機械学習(Collaborative Machine Learning, ML)は、多くのパーティから収集されたデータをトレーニングすることで、高品質なMLモデルを構築するための魅力的なパラダイムである。
これらの団体は、貢献に基づいて公正な報酬が保証されるなど、十分なインセンティブを与えられた場合にのみ、データを共有する意思を持っている。
本稿では,そのデータから得られるモデルの値と情報ゲインに基づいて,当事者の報酬を評価することを提案する。
論文 参考訳(メタデータ) (2020-10-24T06:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。