論文の概要: How to Combine Variational Bayesian Networks in Federated Learning
- arxiv url: http://arxiv.org/abs/2206.10897v1
- Date: Wed, 22 Jun 2022 07:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 02:02:27.424576
- Title: How to Combine Variational Bayesian Networks in Federated Learning
- Title(参考訳): 連帯学習における変分ベイズネットワークの結合法
- Authors: Atahan Ozer, Kadir Burak Buldu, Abdullah Akg\"ul, Gozde Unal
- Abstract要約: フェデレートラーニングにより、複数のデータセンターが機密データを公開することなく、協力的に中央モデルをトレーニングできる。
決定論的モデルは高い予測精度を達成することができ、キャリブレーションの欠如と不確実性を定量化する能力は、安全クリティカルなアプリケーションには問題となる。
変分ベイズニューラルネットワークに対する様々なアグリゲーションスキームの効果について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning enables multiple data centers to train a central model
collaboratively without exposing any confidential data. Even though
deterministic models are capable of performing high prediction accuracy, their
lack of calibration and capability to quantify uncertainty is problematic for
safety-critical applications. Different from deterministic models,
probabilistic models such as Bayesian neural networks are relatively
well-calibrated and able to quantify uncertainty alongside their competitive
prediction accuracy. Both of the approaches appear in the federated learning
framework; however, the aggregation scheme of deterministic models cannot be
directly applied to probabilistic models since weights correspond to
distributions instead of point estimates. In this work, we study the effects of
various aggregation schemes for variational Bayesian neural networks. With
empirical results on three image classification datasets, we observe that the
degree of spread for an aggregated distribution is a significant factor in the
learning process. Hence, we present an investigation on the question of how to
combine variational Bayesian networks in federated learning, while providing
benchmarks for different aggregation settings.
- Abstract(参考訳): フェデレーション学習は、複数のデータセンタが機密データを公開することなく、中央モデルを協調的にトレーニングすることを可能にする。
決定論的モデルは高い予測精度を実現できるが、不確かさを定量化するキャリブレーションや能力の欠如は安全クリティカルなアプリケーションでは問題となる。
決定論的モデルと異なり、ベイズニューラルネットワークのような確率論的モデルは比較的よく校正されており、その競合予測精度とともに不確実性を定量化することができる。
どちらのアプローチもフェデレーション学習フレームワークに現れるが、重み付けは点推定ではなく分布に対応するため、決定論的モデルの集約スキームを直接確率モデルに適用することはできない。
本研究では,変分ベイズニューラルネットワークに対する様々なアグリゲーションスキームの効果について検討する。
3つの画像分類データセットに対する実験結果から,集約分布の拡散度が学習過程において重要な要因であることが確認された。
そこで本研究では,分散学習における変分ベイズネットワークの結合方法についての考察を行い,異なるアグリゲーション設定のベンチマークを提供する。
関連論文リスト
- Federated Bayesian Deep Learning: The Application of Statistical Aggregation Methods to Bayesian Models [0.9940108090221528]
集約戦略は、分散決定論的モデルの重みとバイアスをプールまたはフューズするために開発されている。
決定論的モデルに対するFLスキームに付随するアグリゲーション手法の簡単な適用は不可能か、あるいは準最適性能をもたらすかを示す。
論文 参考訳(メタデータ) (2024-03-22T15:02:24Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Dropout Strikes Back: Improved Uncertainty Estimation via Diversity
Sampling [3.077929914199468]
ニューラルネットワークにおけるドロップアウト層に対するサンプリング分布の変更により,不確実性評価の品質が向上することを示す。
主要なアイデアは、ニューロン間のデータ駆動相関を計算し、最大多様なニューロンを含むサンプルを生成する、という2つの主要なステップで構成されています。
論文 参考訳(メタデータ) (2020-03-06T15:20:04Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Uncertainty Estimation for End-To-End Learned Dense Stereo Matching via
Probabilistic Deep Learning [0.0]
重極補正ステレオ画像対からの結合深さと不確実性推定のタスクに対して,新しい確率的ニューラルネットワークを提案する。
ネットワークは、予測毎にパラメータがサンプリングされる確率分布を学習する。
推定深度と不確実性情報の質を3つの異なるデータセットで広範囲に評価する。
論文 参考訳(メタデータ) (2020-02-10T11:27:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。