論文の概要: Data Pricing for Graph Neural Networks without Pre-purchased Inspection
- arxiv url: http://arxiv.org/abs/2502.08284v1
- Date: Wed, 12 Feb 2025 10:42:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:44:49.004148
- Title: Data Pricing for Graph Neural Networks without Pre-purchased Inspection
- Title(参考訳): 事前購入検査を行わないグラフニューラルネットワークのデータ価格設定
- Authors: Yiping Liu, Mengxiao Zhang, Jiamou Liu, Song Yang,
- Abstract要約: モデルマーケットプレースでは、モデルトレーディングメカニズムを活用して、データ所有者に適切なインセンティブを与える。
本稿では、データの重要性を評価し、データ所有者を補償する構造的重要度に基づくモデル取引機構(SIMT)を提案する。
SIMTは、MacroF1とMicroF1の両方で、バニラベースラインを40%以上上回っている。
- 参考スコア(独自算出の注目度): 15.556650640576311
- License:
- Abstract: Machine learning (ML) models have become essential tools in various scenarios. Their effectiveness, however, hinges on a substantial volume of data for satisfactory performance. Model marketplaces have thus emerged as crucial platforms bridging model consumers seeking ML solutions and data owners possessing valuable data. These marketplaces leverage model trading mechanisms to properly incentive data owners to contribute their data, and return a well performing ML model to the model consumers. However, existing model trading mechanisms often assume the data owners are willing to share their data before being paid, which is not reasonable in real world. Given that, we propose a novel mechanism, named Structural Importance based Model Trading (SIMT) mechanism, that assesses the data importance and compensates data owners accordingly without disclosing the data. Specifically, SIMT procures feature and label data from data owners according to their structural importance, and then trains a graph neural network for model consumers. Theoretically, SIMT ensures incentive compatible, individual rational and budget feasible. The experiments on five popular datasets validate that SIMT consistently outperforms vanilla baselines by up to $40\%$ in both MacroF1 and MicroF1.
- Abstract(参考訳): 機械学習(ML)モデルは、さまざまなシナリオにおいて欠かせないツールとなっている。
しかし、その効果は十分なパフォーマンスを得るためにかなりの量のデータに依存している。
モデルマーケットプレースは、MLソリューションと価値あるデータを持つデータ所有者を求めるモデル消費者をブリッジする重要なプラットフォームとして登場した。
これらのマーケットプレースでは、モデルトレーディングメカニズムを活用して、データ所有者に適切なインセンティブを与え、モデルコンシューマに優れたパフォーマンスのMLモデルを返す。
しかし、既存のモデルトレーディングメカニズムは、データ所有者が支払いの前にデータを共有することを望んでいると仮定することが多い。
そこで本研究では,構造的重要度に基づくモデル取引(SIMT)機構を新たに提案する。データの重要性を評価し,データ公開を伴わずにデータ所有者を補償する。
具体的には、SIMTはその構造的重要性に応じてデータ所有者から特徴とラベルデータを取得し、モデル消費者のためにグラフニューラルネットワークをトレーニングする。
理論的には、SIMTはインセンティブ互換、個別の合理性、予算の実現性を保証する。
5つの一般的なデータセットの実験では、SIMTは、MacroF1とMicroF1の両方で、バニラベースラインを最大40\%以上上回っている。
関連論文リスト
- DreamMask: Boosting Open-vocabulary Panoptic Segmentation with Synthetic Data [61.62554324594797]
オープンな語彙設定でトレーニングデータを生成する方法と、実データと合成データの両方でモデルをトレーニングする方法を探索するDreamMaskを提案する。
一般的に、DreamMaskは大規模なトレーニングデータの収集を著しく単純化し、既存のメソッドのプラグイン・アンド・プレイ・エンハンスメントとして機能する。
例えば、COCOで訓練しADE20Kで試験すると、ドリームマスクを装備したモデルは以前の最先端の2.1% mIoUよりも優れていた。
論文 参考訳(メタデータ) (2025-01-03T19:00:00Z) - F-FOMAML: GNN-Enhanced Meta-Learning for Peak Period Demand Forecasting with Proxy Data [65.6499834212641]
本稿では,需要予測をメタラーニング問題として定式化し,F-FOMAMLアルゴリズムを開発した。
タスク固有のメタデータを通してドメインの類似性を考慮することにより、トレーニングタスクの数が増加するにつれて過剰なリスクが減少する一般化を改善した。
従来の最先端モデルと比較して,本手法では需要予測精度が著しく向上し,内部自動販売機データセットでは平均絶対誤差が26.24%,JD.comデータセットでは1.04%削減された。
論文 参考訳(メタデータ) (2024-06-23T21:28:50Z) - IMFL-AIGC: Incentive Mechanism Design for Federated Learning Empowered by Artificial Intelligence Generated Content [15.620004060097155]
フェデレートラーニング(FL)は、クライアントがローカルデータをアップロードすることなく、共有グローバルモデルを協調的にトレーニングできる、有望なパラダイムとして登場した。
顧客参加を促すため,データ品質を考慮したインセンティブ機構を提案する。
提案したメカニズムは,トレーニングの精度が高く,実世界のデータセットによるサーバコストの最大53.34%を削減できる。
論文 参考訳(メタデータ) (2024-06-12T07:47:22Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - Data Acquisition: A New Frontier in Data-centric AI [65.90972015426274]
まず、現在のデータマーケットプレースを調査し、データセットに関する詳細な情報を提供するプラットフォームが不足していることを明らかにする。
次に、データプロバイダと取得者間のインタラクションをモデル化するベンチマークであるDAMチャレンジを紹介します。
提案手法の評価は,機械学習における効果的なデータ取得戦略の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-11-22T22:15:17Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - An Investigation of Smart Contract for Collaborative Machine Learning
Model Training [3.5679973993372642]
協調機械学習(CML)はビッグデータ時代において様々な分野に浸透してきた。
MLモデルのトレーニングには大量の高品質なデータが必要であるため、データのプライバシに関する懸念を取り除く必要がある。
ブロックチェーンに基づいて、スマートコントラクトはデータ保存とバリデーションの自動実行を可能にする。
論文 参考訳(メタデータ) (2022-09-12T04:25:01Z) - Dynamic and Context-Dependent Stock Price Prediction Using Attention
Modules and News Sentiment [0.0]
本稿では,金融時系列データに対する新たなモデリング手法である$alpha_t$-RIM(リカレント・インディペンデント・メカニズム)を提案する。
このようなダイナミックな方法でデータをモデル化するために、$alpha_t$-RIMは指数的にスムーズなリカレントニューラルネットワークを使用する。
その結果、$alpha_t$-RIMは、株価とニュースセンチメントの因果構造、季節やトレンドを反映できることがわかった。
論文 参考訳(メタデータ) (2022-03-13T15:13:36Z) - A Marketplace for Trading AI Models based on Blockchain and Incentives
for IoT Data [24.847898465750667]
機械学習(ML)の新たなパラダイムは、学習モデルを異種エージェントのグループに部分的に配信するフェデレートされたアプローチであり、エージェントは自身のデータでモデルをローカルにトレーニングすることができる。
モデルの評価の問題や、協調トレーニングやデータ/モデルの取引に対するインセンティブの問題は、文献において限られた扱いを受けてきた。
本稿では、信頼されたMLベースのネットワーク上でのMLモデルトレーディングの新しいエコシステムを提案する。買い手はML市場から関心のモデルを取得することができ、興味のある売り手はそのモデルの品質を高めるためにローカルな計算に費やす。
論文 参考訳(メタデータ) (2021-12-06T08:52:42Z) - FL-Market: Trading Private Models in Federated Learning [19.11812014629085]
既存のモデルマーケットプレースでは、ブローカーがデータ所有者のプライベートトレーニングデータにアクセスできると仮定している。
FL-Marketは,モデル購入者だけでなく,信頼できないブローカーに対してプライバシを保護する,ローカルプライベートモデルマーケットプレースである。
論文 参考訳(メタデータ) (2021-06-08T14:14:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。