論文の概要: OPUS-VFL: Incentivizing Optimal Privacy-Utility Tradeoffs in Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2504.15995v1
- Date: Tue, 22 Apr 2025 16:00:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 17:32:21.203014
- Title: OPUS-VFL: Incentivizing Optimal Privacy-Utility Tradeoffs in Vertical Federated Learning
- Title(参考訳): OPUS-VFL:垂直的フェデレーション学習における最適プライバシ-ユーティリティトレードオフのインセンティブ
- Authors: Sindhuja Madabushi, Ahmad Faraz Khan, Haider Ali, Jin-Hee Cho,
- Abstract要約: VFL(Vertical Federated Learning)のための最適プライバシ・ユーティリティトレードオフ戦略であるOPUS-VFLを提案する。
OPUS-VFLは、モデルコントリビューション、プライバシ保護、リソース投資の原則の組み合わせに基づいて、顧客に報酬を与える、新しいプライバシ対応インセンティブメカニズムを導入している。
私たちのフレームワークは、スケーラブルで予算バランスが良く、推論や中毒攻撃に対して堅牢なように設計されています。
- 参考スコア(独自算出の注目度): 5.18016531192802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical Federated Learning (VFL) enables organizations with disjoint feature spaces but shared user bases to collaboratively train models without sharing raw data. However, existing VFL systems face critical limitations: they often lack effective incentive mechanisms, struggle to balance privacy-utility tradeoffs, and fail to accommodate clients with heterogeneous resource capabilities. These challenges hinder meaningful participation, degrade model performance, and limit practical deployment. To address these issues, we propose OPUS-VFL, an Optimal Privacy-Utility tradeoff Strategy for VFL. OPUS-VFL introduces a novel, privacy-aware incentive mechanism that rewards clients based on a principled combination of model contribution, privacy preservation, and resource investment. It employs a lightweight leave-one-out (LOO) strategy to quantify feature importance per client, and integrates an adaptive differential privacy mechanism that enables clients to dynamically calibrate noise levels to optimize their individual utility. Our framework is designed to be scalable, budget-balanced, and robust to inference and poisoning attacks. Extensive experiments on benchmark datasets (MNIST, CIFAR-10, and CIFAR-100) demonstrate that OPUS-VFL significantly outperforms state-of-the-art VFL baselines in both efficiency and robustness. It reduces label inference attack success rates by up to 20%, increases feature inference reconstruction error (MSE) by over 30%, and achieves up to 25% higher incentives for clients that contribute meaningfully while respecting privacy and cost constraints. These results highlight the practicality and innovation of OPUS-VFL as a secure, fair, and performance-driven solution for real-world VFL.
- Abstract(参考訳): Vertical Federated Learning (VFL)は、分離された機能空間を持つ組織が、共有されたユーザベースを使って、生データを共有することなく、協力的にモデルをトレーニングすることを可能にする。
しかしながら、既存のVFLシステムには、効果的なインセンティブメカニズムが欠如していること、プライバシとユーティリティのトレードオフのバランスが困難であること、異種リソース機能にクライアントが対応できないこと、など、重大な制限がある。
これらの課題は、意味のある参加を妨げ、モデルパフォーマンスを低下させ、実践的なデプロイメントを制限します。
これらの問題に対処するため、我々は、VFLの最適プライバシ・ユーティリティトレードオフ戦略であるOPUS-VFLを提案する。
OPUS-VFLは、モデルコントリビューション、プライバシ保護、リソース投資の原則の組み合わせに基づいて、顧客に報酬を与える、新しいプライバシ対応インセンティブメカニズムを導入している。
クライアント毎の機能の重要性を定量化するために、軽量なLeft-one-out(LOO)戦略を採用し、適応的な差分プライバシーメカニズムを統合し、クライアントがノイズレベルを動的に調整し、個々のユーティリティを最適化できるようにする。
私たちのフレームワークは、スケーラブルで予算バランスが良く、推論や中毒攻撃に対して堅牢なように設計されています。
ベンチマークデータセット(MNIST、CIFAR-10、CIFAR-100)の大規模な実験は、OPUS-VFLが最先端のVFLベースラインを効率性と堅牢性の両方で著しく上回っていることを示した。
ラベル推論攻撃の成功率を最大20%削減し、特徴推論再構成エラー(MSE)を30%以上増加させ、プライバシとコスト制約を尊重しながら有意義に貢献するクライアントに対して最大25%高いインセンティブを達成する。
これらの結果はOPUS-VFLの実用性と革新性を、現実世界のVFLの安全で公正で、パフォーマンス駆動のソリューションとして強調している。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Learn More by Using Less: Distributed Learning with Energy-Constrained Devices [3.730504020733928]
Federated Learning(FL)は、分散モデルトレーニングのソリューションとして、分散化されたプライバシ保護デバイスに登場した。
本稿では,電池に制約のあるデバイス上でのクライアント選択とトレーニング作業の最適化を目的とした,エネルギーを意識したFLフレームワークであるLeanFedを提案する。
論文 参考訳(メタデータ) (2024-12-03T09:06:57Z) - A Green Multi-Attribute Client Selection for Over-The-Air Federated Learning: A Grey-Wolf-Optimizer Approach [5.277822313069301]
OTA(Over-the-air)FLは、デバイス間直接接続や集中型サーバを使わずにモデルアップデートを広めることによって、これらの課題に対処するために導入された。
OTA-FLは、エネルギー消費の増大とネットワーク遅延の制限を引き起こした。
本稿では,グレイオオカミ(GWO)を用いた多属性クライアント選択フレームワークを提案し,各ラウンドの参加者数を戦略的に制御する。
論文 参考訳(メタデータ) (2024-09-16T20:03:57Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - FedLesScan: Mitigating Stragglers in Serverless Federated Learning [0.7388859384645262]
Federated Learning(FL)は、分散クライアント間で共有グローバルモデルのトレーニングを可能にする機械学習パラダイムである。
我々は、サーバーレスFLに適したクラスタリングベースの新しい半非同期トレーニング戦略であるFedLesScanを提案する。
FedLesScanはトレーニング時間とコストをそれぞれ平均8%と20%削減し、クライアントの有効更新率は平均17.75%向上した。
論文 参考訳(メタデータ) (2022-11-10T18:17:41Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。