論文の概要: On the Fragility of Contribution Score Computation in Federated Learning
- arxiv url: http://arxiv.org/abs/2509.19921v1
- Date: Wed, 24 Sep 2025 09:22:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.753342
- Title: On the Fragility of Contribution Score Computation in Federated Learning
- Title(参考訳): フェデレーション学習におけるコントリビューションスコア計算の脆弱性について
- Authors: Balazs Pejo, Marcell Frank, Krisztian Varga, Peter Veliczky,
- Abstract要約: コントリビューションスコアは2つの基本的視点からの大きな歪みに影響を受けやすいと論じる。
まず、異なるモデルアグリゲーション手法がこれらのスコアにどのように影響するかを検討する。
第二に、毒殺によって引き起こされる脆弱性を探索する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the fragility of contribution evaluation in federated learning, a critical mechanism for ensuring fairness and incentivizing participation. We argue that contribution scores are susceptible to significant distortions from two fundamental perspectives: architectural sensitivity and intentional manipulation. First, we explore how different model aggregation methods impact these scores. While most research assumes a basic averaging approach, we demonstrate that advanced techniques, including those designed to handle unreliable or diverse clients, can unintentionally yet significantly alter the final scores. Second, we explore vulnerabilities posed by poisoning attacks, where malicious participants strategically manipulate their model updates to inflate their own contribution scores or reduce the importance of other participants. Through extensive experiments across diverse datasets and model architectures, implemented within the Flower framework, we rigorously show that both the choice of aggregation method and the presence of attackers are potent vectors for distorting contribution scores, highlighting a critical need for more robust evaluation schemes.
- Abstract(参考訳): 本稿では,フェデレーション学習におけるコントリビューション評価の脆弱さについて検討する。
コントリビューションスコアは、アーキテクチャの感度と意図的な操作という2つの基本的な視点からの大きな歪みに影響を受けやすいと我々は主張する。
まず、異なるモデルアグリゲーション手法がこれらのスコアにどのように影響するかを検討する。
ほとんどの研究は、基本的な平均化アプローチを前提としていますが、信頼性の低いクライアントや多様なクライアントを扱うように設計された高度な技術は、意図せずも最終的なスコアを大きく変えることができます。
第二に、悪意のある参加者がモデルアップデートを戦略的に操作し、自身のコントリビューションスコアをインフレーションしたり、他の参加者の重要性を減らしたりする攻撃によって引き起こされる脆弱性について検討する。
Flowerフレームワーク内に実装された多様なデータセットやモデルアーキテクチャにわたる広範な実験を通じて、アグリゲーションメソッドの選択とアタッカーの存在の両方がコントリビューションスコアを歪める強力なベクトルであることを示し、より堅牢な評価スキームに対する重要なニーズを強調した。
関連論文リスト
- Does simple trump complex? Comparing strategies for adversarial robustness in DNNs [3.6130723421895947]
ディープニューラルネットワーク(DNN)は、様々なアプリケーションでかなりの成功を収めているが、敵の攻撃に弱いままである。
本研究は, 対人強靭性向上に寄与する2つの異なる対人訓練手法の構成要素を同定し, 分離することを目的とする。
論文 参考訳(メタデータ) (2025-08-25T13:33:38Z) - Equally Critical: Samples, Targets, and Their Mappings in Datasets [6.859656302020063]
本稿では,サンプルとターゲットがトレーニングのダイナミクスにどのように影響するかを検討する。
まず、サンプルとターゲットの相互作用のレンズを通して、既存のパラダイムの分類法を確立する。
次に、トレーニング効率への影響を評価するために、新しい統合損失フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-17T08:27:19Z) - Enhancing Adversarial Robustness via Uncertainty-Aware Distributional Adversarial Training [43.766504246864045]
そこで本研究では,不確実性を考慮した分散対向学習手法を提案する。
提案手法は, 最先端の対向性を実現し, 自然性能を維持できる。
論文 参考訳(メタデータ) (2024-11-05T07:26:24Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Preference Poisoning Attacks on Reward Model Learning [47.00395978031771]
ペア比較による報酬モデル学習における脆弱性の性質と範囲について検討する。
本稿では,これらの攻撃に対するアルゴリズム的アプローチのクラスとして,勾配に基づくフレームワークと,ランク・バイ・ディスタンス手法のいくつかのバリエーションを提案する。
最高の攻撃は多くの場合、非常に成功しており、最も極端な場合、100%の成功率を達成することができ、データのわずか0.3%が毒殺されている。
論文 参考訳(メタデータ) (2024-02-02T21:45:24Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Benchmarking Adversarial Robustness [47.168521143464545]
我々は、画像分類タスクにおける敵の堅牢性を評価するために、包括的で厳密でコヒーレントなベンチマークを確立する。
評価結果に基づいて,いくつかの重要な知見を導き,今後の研究への洞察を提供する。
論文 参考訳(メタデータ) (2019-12-26T12:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。