論文の概要: Decoding Federated Learning: The FedNAM+ Conformal Revolution
- arxiv url: http://arxiv.org/abs/2506.17872v2
- Date: Sat, 28 Jun 2025 04:14:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 13:01:42.696904
- Title: Decoding Federated Learning: The FedNAM+ Conformal Revolution
- Title(参考訳): フェデレーション学習のデコード: FedNAM+ コンフォーマル革命
- Authors: Sree Bhargavi Balija, Amitash Nanda, Debashis Sahoo,
- Abstract要約: FedNAM+は、ニューラルネットワーク付加モデル(NAM)と新しい共形予測手法を統合する、連合学習フレームワークである。
本手法では,勾配に基づく感度マップを用いた動的レベル調整手法を導入し,重要な入力特徴が予測に与える影響を同定する。
我々は、CTスキャン、MNIST、CIFARデータセットの実験を通して、我々のアプローチを検証し、損失を最小限に抑えながら高い予測精度を示す。
- 参考スコア(独自算出の注目度): 0.16874375111244327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has significantly advanced distributed training of machine learning models across decentralized data sources. However, existing frameworks often lack comprehensive solutions that combine uncertainty quantification, interpretability, and robustness. To address this, we propose FedNAM+, a federated learning framework that integrates Neural Additive Models (NAMs) with a novel conformal prediction method to enable interpretable and reliable uncertainty estimation. Our method introduces a dynamic level adjustment technique that utilizes gradient-based sensitivity maps to identify key input features influencing predictions. This facilitates both interpretability and pixel-wise uncertainty estimates. Unlike traditional interpretability methods such as LIME and SHAP, which do not provide confidence intervals, FedNAM+ offers visual insights into prediction reliability. We validate our approach through experiments on CT scan, MNIST, and CIFAR datasets, demonstrating high prediction accuracy with minimal loss (e.g., only 0.1% on MNIST), along with transparent uncertainty measures. Visual analysis highlights variable uncertainty intervals, revealing low-confidence regions where model performance can be improved with additional data. Compared to Monte Carlo Dropout, FedNAM+ delivers efficient and global uncertainty estimates with reduced computational overhead, making it particularly suitable for federated learning scenarios. Overall, FedNAM+ provides a robust, interpretable, and computationally efficient framework that enhances trust and transparency in decentralized predictive modeling.
- Abstract(参考訳): フェデレーション学習は、分散化されたデータソースをまたいだ機械学習モデルの分散トレーニングを著しく進歩させてきた。
しかし、既存のフレームワークは、不確実性定量化、解釈可能性、堅牢性を組み合わせた包括的なソリューションを欠いていることが多い。
そこで我々は,ニューラル・アダプティブ・モデル(NAM)と新しい共形予測手法を統合するフェデレート学習フレームワークであるFedNAM+を提案する。
本手法では,勾配に基づく感度マップを用いた動的レベル調整手法を導入し,重要な入力特徴が予測に与える影響を同定する。
これにより、解釈可能性と画素単位の不確実性の推定の両方が容易になる。
LIMEやSHAPのように信頼区間を提供しない従来の解釈可能性手法とは異なり、FedNAM+は予測信頼性に関する視覚的な洞察を提供する。
我々は、CTスキャン、MNIST、CIFARデータセットの実験を通じて、我々のアプローチを検証し、透過的な不確実性対策とともに、最小損失(例えば、MNISTの0.1%)で高い予測精度を示す。
ビジュアル分析では、変数の不確実性間隔が強調され、モデルパフォーマンスを追加データで改善可能な低信頼領域が明らかになった。
モンテカルロ・ドロップアウトと比較すると、FedNAM+は計算オーバーヘッドを減らし、効率的でグローバルな不確実性の推定を提供するため、特にフェデレートされた学習シナリオに適している。
全体として、FedNAM+は、分散予測モデリングにおける信頼と透明性を高める、堅牢で、解釈可能で、計算的に効率的なフレームワークを提供する。
関連論文リスト
- CLUE: Neural Networks Calibration via Learning Uncertainty-Error alignment [7.702016079410588]
CLUE(Calibration via Learning Uncertainty-Error Alignment)は,学習中の予測不確かさを観測誤差と整合させる新しい手法である。
CLUEは,最先端のアプローチに対して,キャリブレーション品質と競争予測性能に優れることを示す。
論文 参考訳(メタデータ) (2025-05-28T19:23:47Z) - Quantifying calibration error in modern neural networks through evidence based theory [0.0]
本稿では、予測エラー(ECE)の評価に主観的論理を組み込むことにより、ニューラルネットワークの信頼性を定量化する新しい枠組みを提案する。
我々は,MNISTおよびCIFAR-10データセットを用いた実験により,信頼性が向上したことを示す。
提案されたフレームワークは、医療や自律システムといったセンシティブな分野における潜在的な応用を含む、AIモデルのより解釈可能でニュアンスな評価を提供する。
論文 参考訳(メタデータ) (2024-10-31T23:54:21Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Feature Norm Regularized Federated Learning: Transforming Skewed
Distributions into Global Insights [16.039822050613022]
本研究は,FNR-FLアルゴリズムを紹介する。
FNR-FLは、非I.D.シナリオにおけるモデルの精度と収束を高めるために、クラス平均特徴ノルムを取り入れている。
その結果,FNR-FLの精度は66.24%向上し,トレーニング時間は11.40%低下した。
論文 参考訳(メタデータ) (2023-12-12T03:09:37Z) - Decorrelative Network Architecture for Robust Electrocardiogram
Classification [4.808817930937323]
すべてのシナリオで正確であるネットワークをトレーニングすることはできない。
深層学習法は不確実性を推定するためにモデルパラメータ空間をサンプリングする。
これらのパラメータは、しばしば、敵の攻撃によって悪用される、同じ脆弱性にさらされる。
本稿では,特徴デコレーションとフーリエ分割に基づく新たなアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T02:36:36Z) - PDC-Net+: Enhanced Probabilistic Dense Correspondence Network [161.76275845530964]
高度確率密度対応ネットワーク(PDC-Net+)は、精度の高い高密度対応を推定できる。
我々は、堅牢で一般化可能な不確実性予測に適したアーキテクチャと強化されたトレーニング戦略を開発する。
提案手法は,複数の挑戦的幾何マッチングと光学的フローデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-28T17:56:41Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Grasping Detection Network with Uncertainty Estimation for
Confidence-Driven Semi-Supervised Domain Adaptation [17.16216430459064]
本稿では,信頼駆動型半教師付き学習を用いた新たな把握検出ネットワークを通じて,ドメイン適応が容易なアプローチを提案する。
提案した把握検出ネットワークは,特徴ピラミッドネットワーク(FPN)を利用した予測不確実性推定機構を特に提供し,平均教師半教師学習は,そのような不確実性情報を利用して,信頼度の高い非競合データに対してのみ整合性損失を強調する。
提案したネットワークは,コーネル把握データセット上で高い成功率を達成できることを示すとともに,極めて限られたデータでドメイン適応を行う場合,信頼駆動型平均教師は,元の平均教師と直接訓練を10%以上向上させる。
論文 参考訳(メタデータ) (2020-08-20T07:42:45Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。