論文の概要: Robust Federated Inference
- arxiv url: http://arxiv.org/abs/2510.00310v1
- Date: Tue, 30 Sep 2025 22:08:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.178336
- Title: Robust Federated Inference
- Title(参考訳): ロバストフェデレーション推論
- Authors: Akash Dhasade, Sadegh Farhadkhani, Rachid Guerraoui, Nirupam Gupta, Maxime Jacovella, Anne-Marie Kermarrec, Rafael Pinot,
- Abstract要約: 我々は、ロバストなフェデレーション推論法を初めて分析する。
直感応答の相違が小さいか、最も確率の高い2つのクラス間の差が大きい場合、アグリゲータの誤差が小さいことを示す。
次に、DeepSetアグリゲーションモデルを用いた高度な手法を導入し、敵対的トレーニングとテスト時間ロバストアグリゲーションの新しい構成を提案する。
- 参考スコア(独自算出の注目度): 19.457701052904234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated inference, in the form of one-shot federated learning, edge ensembles, or federated ensembles, has emerged as an attractive solution to combine predictions from multiple models. This paradigm enables each model to remain local and proprietary while a central server queries them and aggregates predictions. Yet, the robustness of federated inference has been largely neglected, leaving them vulnerable to even simple attacks. To address this critical gap, we formalize the problem of robust federated inference and provide the first robustness analysis of this class of methods. Our analysis of averaging-based aggregators shows that the error of the aggregator is small either when the dissimilarity between honest responses is small or the margin between the two most probable classes is large. Moving beyond linear averaging, we show that problem of robust federated inference with non-linear aggregators can be cast as an adversarial machine learning problem. We then introduce an advanced technique using the DeepSet aggregation model, proposing a novel composition of adversarial training and test-time robust aggregation to robustify non-linear aggregators. Our composition yields significant improvements, surpassing existing robust aggregation methods by 4.7 - 22.2% in accuracy points across diverse benchmarks.
- Abstract(参考訳): フェデレーション推論は、ワンショットのフェデレーション学習、エッジアンサンブル、フェデレーションアンサンブルという形で、複数のモデルからの予測を組み合わせる魅力的なソリューションとして登場した。
このパラダイムは、各モデルをローカルとプロプライエタリに保ちながら、中央サーバがそれらをクエリし、予測を集約することを可能にする。
しかし、連合推論の堅牢性はほとんど無視されており、単純な攻撃にも弱いままである。
この致命的なギャップに対処するため、我々は堅牢なフェデレーション推論の問題を定式化し、このクラスの手法の最初のロバスト性解析を提供する。
平均的なアグリゲータを解析した結果,アグリゲータの誤差は,正直な応答の相違が小さい場合や,最も確率の高い2つのクラス間の差が大きい場合のいずれにおいても小さいことがわかった。
線形平均化を超えて、非線形アグリゲータによる堅牢なフェデレーション推論の問題は、逆機械学習問題として考えられる。
次に、DeepSetアグリゲーションモデルを用いた高度な手法を導入し、非線形アグリゲータを強固化するために、敵対的トレーニングとテスト時間ロバストアグリゲーションの新たな構成を提案する。
我々の構成は、様々なベンチマークで4.7~22.2%の精度で既存のロバストアグリゲーション法を上回り、大幅な改善をもたらす。
関連論文リスト
- Near-Optimal Resilient Aggregation Rules for Distributed Learning Using 1-Center and 1-Mean Clustering with Outliers [24.88026399458157]
ビザンティンの機械学習は、予測不可能な欠陥によってかなりの注目を集めている。
分散学習におけるマシンのセキュア化の鍵は、レジリエントな集約メカニズムである。
論文 参考訳(メタデータ) (2023-12-20T08:36:55Z) - Exploring Model Learning Heterogeneity for Boosting Ensemble Robustness [17.127312781074245]
ディープニューラルネットワークアンサンブルは、複雑な学習タスクの一般化性能を改善する可能性を秘めている。
本稿では,高いアンサンブル多様性を有するヘテロジニアス深層アンサンブルの形式解析と経験的評価について述べる。
論文 参考訳(メタデータ) (2023-10-03T17:47:25Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Tackling the Objective Inconsistency Problem in Heterogeneous Federated
Optimization [93.78811018928583]
本稿では、フェデレートされた異種最適化アルゴリズムの収束性を分析するためのフレームワークを提供する。
我々は,高速な誤差収束を保ちながら,客観的な矛盾を解消する正規化平均化手法であるFedNovaを提案する。
論文 参考訳(メタデータ) (2020-07-15T05:01:23Z) - Robust Aggregation for Federated Learning [37.47208810846432]
フェデレートラーニング(Federated Learning)とは、モバイルデバイス上の分散データから統計モデルの集中的なトレーニングである。
本稿では,一部のデバイスがサーバに不正な更新を送信している場合に,フェデレーション学習を堅牢にするために,ロバストアグリゲーションアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-31T17:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。