論文の概要: Rashomon Sets and Model Multiplicity in Federated Learning
- arxiv url: http://arxiv.org/abs/2602.09520v1
- Date: Tue, 10 Feb 2026 08:25:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.447675
- Title: Rashomon Sets and Model Multiplicity in Federated Learning
- Title(参考訳): フェデレートラーニングにおける羅生門集合とモデル多重性
- Authors: Xenia Heilmann, Luca Corbucci, Mattia Cerrato,
- Abstract要約: 我々は、フェデレートラーニング(FL)におけるラショモン集合の最初の形式化を提供する。
FLのプライバシー制約の下で、標準的な多重度メトリクスをどのように推定できるかを示す。
提案した3つのRashomon集合定義はいずれも有意義な洞察を与えることを示す。
- 参考スコア(独自算出の注目度): 4.001780301402232
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The Rashomon set captures the collection of models that achieve near-identical empirical performance yet may differ substantially in their decision boundaries. Understanding the differences among these models, i.e., their multiplicity, is recognized as a crucial step toward model transparency, fairness, and robustness, as it reveals decision boundaries instabilities that standard metrics obscure. However, the existing definitions of Rashomon set and multiplicity metrics assume centralized learning and do not extend naturally to decentralized, multi-party settings like Federated Learning (FL). In FL, multiple clients collaboratively train models under a central server's coordination without sharing raw data, which preserves privacy but introduces challenges from heterogeneous client data distribution and communication constraints. In this setting, the choice of a single best model may homogenize predictive behavior across diverse clients, amplify biases, or undermine fairness guarantees. In this work, we provide the first formalization of Rashomon sets in FL.First, we adapt the Rashomon set definition to FL, distinguishing among three perspectives: (I) a global Rashomon set defined over aggregated statistics across all clients, (II) a t-agreement Rashomon set representing the intersection of local Rashomon sets across a fraction t of clients, and (III) individual Rashomon sets specific to each client's local distribution.Second, we show how standard multiplicity metrics can be estimated under FL's privacy constraints. Finally, we introduce a multiplicity-aware FL pipeline and conduct an empirical study on standard FL benchmark datasets. Our results demonstrate that all three proposed federated Rashomon set definitions offer valuable insights, enabling clients to deploy models that better align with their local data, fairness considerations, and practical requirements.
- Abstract(参考訳): ラショモンセットは、ほぼ同一の実証的なパフォーマンスを達成するが、決定境界において大きく異なるかもしれないモデルの集合をキャプチャする。
これらのモデルの違い、すなわちそれらの乗法性を理解することは、標準メトリクスを曖昧にする決定境界の不安定性を明らかにするため、モデルの透明性、公平性、堅牢性への重要なステップとして認識されている。
しかしながら、既存のRashomonセットと多重度メトリクスの定義は集中学習を前提としており、Federated Learning (FL)のような分散されたマルチパーティ設定に自然に拡張するものではない。
FLでは、複数のクライアントが、生データを共有せずに、中央サーバのコーディネーションの下でモデルを協調的にトレーニングする。
この設定では、単一のベストモデルを選択することで、多様なクライアント間で予測的振る舞いを均質化したり、バイアスを増幅したり、公正性の保証を損なったりすることができる。
本研究は、FLにおけるRashomon集合の最初の形式化について述べる。まず、Rashomon集合の定義をFLに適応させ、(I)全クライアントにまたがる集約統計に基づいて定義されたグローバルなRashomon集合、(II)各クライアントのローカル分布に特有のRashomon集合と(III)各クライアントのローカル分布に特有のRashomon集合の交点を表すt-agreement Rashomon集合、(III)標準多重度メトリクスをFLのプライバシー制約の下でどのように推定するかを示す。
最後に、マルチプライシティ対応FLパイプラインを導入し、標準FLベンチマークデータセットに関する実証的研究を行う。
提案した3つのRashomonセット定義はいずれも価値ある洞察を与え、クライアントがローカルデータ、公平性、実用要件をよりよく整合したモデルをデプロイできることを示した。
関連論文リスト
- Replacing Parameters with Preferences: Federated Alignment of Heterogeneous Vision-Language Models [63.70401095689976]
パラメータを好みに置き換えることは、よりスケーラブルでプライバシに保護される未来を表している、と私たちは主張する。
ヘテロジニアスVLMのためのGRPOとMixture-of-Rewardsを用いた協調アライメントフレームワークであるMoRを提案する。
MoRは、一般化、堅牢性、およびクロスクライアント適応性において、連邦化されたアライメントベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2026-01-31T03:11:51Z) - FLUX: Efficient Descriptor-Driven Clustered Federated Learning under Arbitrary Distribution Shifts [24.415282689834985]
フェデレートラーニング(FL)は、データのプライバシを保持しながら、複数のクライアント間で協調的なモデルトレーニングを可能にする。
FLUXは、新しいクラスタリングベースのFLフレームワークで、トレーニングとテストの両方で、最も一般的な4種類の分散シフトに対処する。
論文 参考訳(メタデータ) (2025-11-27T10:36:08Z) - A Post-Processing-Based Fair Federated Learning Framework [8.978878439498365]
Federated Learning(FL)は、中央サーバでローカルデータセットをプールすることなく、分散パーティ間で協調的なモデルトレーニングを可能にする。
FLシステムにおけるグループフェアネスを改善するために、単純で直感的な後処理ベースのフレームワークを定義し、実証的に分析する。
我々の研究は、このフレームワークがFLにおける公正性の実装を単純化するだけでなく、精度の低下や精度の向上を最小限に抑えながら、大幅な公正性の向上をもたらすことを示している。
論文 参考訳(メタデータ) (2025-01-25T20:05:27Z) - Multi-Level Additive Modeling for Structured Non-IID Federated Learning [54.53672323071204]
我々は、異種クライアント間のより良い知識共有のために、マルチレベル付加モデル(MAM)と呼ばれるマルチレベル構造で編成されたモデルを訓練する。
フェデレートMAM(FeMAM)では、各クライアントは各レベル毎に少なくとも1つのモデルに割り当てられ、そのパーソナライズされた予測は、各レベルに割り当てられたモデルの出力を合計する。
実験により、FeMAMは既存のクラスタリングFLおよびパーソナライズされたFLメソッドを様々な非IID設定で超越していることが示された。
論文 参考訳(メタデータ) (2024-05-26T07:54:53Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - FedCross: Towards Accurate Federated Learning via Multi-Model Cross-Aggregation [16.019513233021435]
フェデレートラーニング(FL)は、ユーザのプライバシを損なうことなく、データサイロ問題に対処するために注目を集めている。
我々はFedCrossという名前の効率的なFLフレームワークを提案する。このフレームワークは、提案したマルチモデルクロスアグリゲーションアプローチに基づいた、新しいマルチツーマルチFLトレーニングスキームを使用する。
We show that FedCross can significantly improve FL accuracy in both IID and non-IID scenarios without causing additional communication overhead。
論文 参考訳(メタデータ) (2022-10-15T13:12:11Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - CD$^2$-pFed: Cyclic Distillation-guided Channel Decoupling for Model
Personalization in Federated Learning [24.08509828106899]
フェデレートラーニング(Federated Learning, FL)は、複数のクライアントが共同で共有グローバルモデルを学ぶことを可能にする分散ラーニングパラダイムである。
FLにおけるグローバルモデルをパーソナライズするために,CD2-pFedという新規なサイクリック蒸留誘導チャネルデカップリングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-08T07:13:30Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。