論文の概要: MURIM: Multidimensional Reputation-based Incentive Mechanism for Federated Learning
- arxiv url: http://arxiv.org/abs/2512.13955v1
- Date: Mon, 15 Dec 2025 23:18:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.521022
- Title: MURIM: Multidimensional Reputation-based Incentive Mechanism for Federated Learning
- Title(参考訳): MURIM:フェデレーション学習のための多次元評価に基づくインセンティブメカニズム
- Authors: Sindhuja Madabushi, Dawood Wasif, Jin-Hee Cho,
- Abstract要約: フェデレートラーニング(FL)は、プライバシ保護機械学習のパラダイムの先駆けとして登場した。
FLは、弱いクライアントインセンティブ、プライバシーリスク、リソース制約など、重要な課題に直面し続けている。
本稿では,クライアントの信頼性,プライバシ,リソース容量,公平性を共同で検討するレピュテーションベースのインセンティブメカニズムであるMURIMを提案する。
- 参考スコア(独自算出の注目度): 3.8054072718666574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) has emerged as a leading privacy-preserving machine learning paradigm, enabling participants to share model updates instead of raw data. However, FL continues to face key challenges, including weak client incentives, privacy risks, and resource constraints. Assessing client reliability is essential for fair incentive allocation and ensuring that each client's data contributes meaningfully to the global model. To this end, we propose MURIM, a MUlti-dimensional Reputation-based Incentive Mechanism that jointly considers client reliability, privacy, resource capacity, and fairness while preventing malicious or unreliable clients from earning undeserved rewards. MURIM allocates incentives based on client contribution, latency, and reputation, supported by a reliability verification module. Extensive experiments on MNIST, FMNIST, and ADULT Income datasets demonstrate that MURIM achieves up to 18% improvement in fairness metrics, reduces privacy attack success rates by 5-9%, and improves robustness against poisoning and noisy-gradient attacks by up to 85% compared to state-of-the-art baselines. Overall, MURIM effectively mitigates adversarial threats, promotes fair and truthful participation, and preserves stable model convergence across heterogeneous and dynamic federated settings.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライバシを保存する機械学習のパラダイムとして登場し、参加者は生データの代わりにモデル更新を共有することができる。
しかし、FLは、弱いクライアントインセンティブ、プライバシーリスク、リソース制約など、重要な課題に直面し続けている。
クライアントの信頼性を評価することは、公正なインセンティブの割り当てと、各クライアントのデータがグローバルモデルに有意義に寄与することを保証するために不可欠である。
そこで本稿では,Multi-dimensional Reputation-based Incentive MechanismであるMURIMを提案する。
MURIMは、信頼性検証モジュールによってサポートされているクライアントのコントリビューション、レイテンシ、評判に基づいてインセンティブを割り当てる。
MNIST、FMNIST、ADULT Incomeデータセットの大規模な実験では、MURIMはフェアネスの指標を最大18%改善し、プライバシアタックの成功率を5~9%削減し、最先端のベースラインと比較して、中毒やノイズの多い攻撃に対する堅牢性を最大85%改善している。
全体として、MURIMは敵の脅威を効果的に軽減し、公正で真正な参加を促進し、不均一で動的に連携された設定にまたがる安定したモデル収束を維持する。
関連論文リスト
- Stragglers Can Contribute More: Uncertainty-Aware Distillation for Asynchronous Federated Learning [61.249748418757946]
Asynchronous Federated Learning (FL)は、その効率性とスケーラビリティの向上に注目されている。
我々は,不確実性を考慮した蒸留を組み込んだ新しいフレームワークであるFedEchoを提案し,非同期FL性能を向上する。
FedEchoが既存の非同期フェデレーション学習ベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2025-11-25T06:25:25Z) - FLARE: Adaptive Multi-Dimensional Reputation for Robust Client Reliability in Federated Learning [0.6524460254566904]
フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングを可能にする。
ビザンツの攻撃、データ中毒、あるいは適応的な敵行動を通じてモデルの完全性を侵害する悪意のあるクライアントには、依然として脆弱である。
FLAREは,クライアントの信頼性評価を二分決定から連続的多次元信頼評価に変換するアダプティブな評価ベースフレームワークである。
論文 参考訳(メタデータ) (2025-11-18T17:57:40Z) - Information-Theoretic Reward Modeling for Stable RLHF: Detecting and Mitigating Reward Hacking [78.69179041551014]
本稿では,インフォメーション・ボトルネックの原理に基づく情報理論報酬モデリングフレームワークを提案する。
InfoRMは、報酬の一般化を緩和するために、嗜好に無関係な情報をフィルタリングする。
IBLは分散レベルの正規化であり、そのような偏差を罰し、最適化の展望を効果的に拡張する。
論文 参考訳(メタデータ) (2025-10-15T15:51:59Z) - CoSIFL: Collaborative Secure and Incentivized Federated Learning with Differential Privacy [1.1266158555540042]
CoSIFLは、堅牢なセキュリティとローカルディファレンシャルプライバシのためのプロアクティブアラームを統合するフレームワークである。
Tullockコンテストにインスパイアされたインセンティブモジュールは、データコントリビューションと信頼性の高いアラームトリガーの両方に対して、誠実なクライアントに報いる。
サーバ・クライアント・ゲームはユニークな平衡性を認めており、クライアントの多次元属性(例えば、IIDの学位やプライバシー予算など)がシステム効率にどのように影響を与えるかを分析する。
論文 参考訳(メタデータ) (2025-09-27T08:45:40Z) - Mitigating Membership Inference Vulnerability in Personalized Federated Learning [6.260747047974035]
フェデレートラーニング(FL)は、クライアントの個人データを共有せずに、協調的なモデルトレーニングのための有望なパラダイムとして登場した。
クラスタリングプロセスにMIAリスクアセスメントを統合するIFCAの改良版であるIFCA-MIRを紹介する。
IFCA-MIRは従来のIFCAと同等のモデル精度と公平性を保ちながらMIAリスクを著しく低減することを示した。
論文 参考訳(メタデータ) (2025-03-12T14:10:35Z) - FinP: Fairness-in-Privacy in Federated Learning by Addressing Disparities in Privacy Risk [2.840505903487544]
FinPは、プライバシーリスクの格差に対処するために特別に設計された、新しいフレームワークである。
ソース推論攻撃(SIA)に対する不均等な脆弱性を緩和する
実用性への影響を最小限に抑えて、プライバシの公平性を改善する。
論文 参考訳(メタデータ) (2025-02-25T00:56:47Z) - MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [92.40586697273868]
モノのインターネットのタイムリーな更新は、車載メタバースサービスの没入を実現するために不可欠である。
本稿では,フェデレーション学習による効率的なプライバシ保護データ提供を可能にする没入型モデルトレーディングフレームワークを提案する。
実験の結果,提案手法は最先端のベンチマークよりも優れていた。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。