論文の概要: Forget-SVGD: Particle-Based Bayesian Federated Unlearning
- arxiv url: http://arxiv.org/abs/2111.12056v1
- Date: Tue, 23 Nov 2021 18:15:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 17:21:20.195447
- Title: Forget-SVGD: Particle-Based Bayesian Federated Unlearning
- Title(参考訳): Forget-SVGD:粒子に基づくベイズ連邦学習
- Authors: Jinu Gong, Osvaldo Simeone, Rahif Kassab, and Joonhyuk Kang
- Abstract要約: Forget-Stein Variational Gradient Descent (Forget-SVGD)はSVGD上に構築されている。
提案手法は,スクラッチから学習する非パラメトリックスキームとの性能比較により,忘れられるデータを除外して検証する。
- 参考スコア(独自算出の注目度): 32.638916321653554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational particle-based Bayesian learning methods have the advantage of
not being limited by the bias affecting more conventional parametric
techniques. This paper proposes to leverage the flexibility of non-parametric
Bayesian approximate inference to develop a novel Bayesian federated unlearning
method, referred to as Forget-Stein Variational Gradient Descent (Forget-SVGD).
Forget-SVGD builds on SVGD - a particle-based approximate Bayesian inference
scheme using gradient-based deterministic updates - and on its distributed
(federated) extension known as Distributed SVGD (DSVGD). Upon the completion of
federated learning, as one or more participating agents request for their data
to be "forgotten", Forget-SVGD carries out local SVGD updates at the agents
whose data need to be "unlearned", which are interleaved with communication
rounds with a parameter server. The proposed method is validated via
performance comparisons with non-parametric schemes that train from scratch by
excluding data to be forgotten, as well as with existing parametric Bayesian
unlearning methods.
- Abstract(参考訳): 変分粒子に基づくベイズ学習法は、従来のパラメトリック手法に影響を与えるバイアスに制限されないという利点がある。
本稿では、非パラメトリックベイズ近似推論の柔軟性を活用して、Forget-Stein Variational Gradient Descent (Forget-SVGD)と呼ばれる新しいベイズ連邦未学習法を開発することを提案する。
Forget-SVGDは、勾配に基づく決定論的更新を用いた粒子ベースの近似ベイズ推論スキームであるSVGDと、分散SVGD(DSVGD)として知られる分散(フェデレート)拡張上に構築されている。
フェデレーション学習が完了すると、1つ以上の参加エージェントがデータを「忘れられる」ように要求すると、Forget-SVGDはパラメータサーバとの通信ラウンドとインターリーブされたデータを必要とするエージェントに対してローカルSVGD更新を実行する。
提案手法は,既存のパラメトリックベイズアンラーニング手法と同様に,忘れられるデータを除外してゼロからトレーニングする非パラメトリックスキームとの性能比較によって検証される。
関連論文リスト
- ELBOing Stein: Variational Bayes with Stein Mixture Inference [12.562946804046051]
スタイン変分降下(SVGD)は、後方の粒子を一組の粒子で表すことで近似ベイズ推定を行う。
我々は,各粒子が混合モデルの成分分布をパラメータ化することでSVGDを一般化する。
提案手法であるStein Mixture Inference (SMI)は,エビデンス(ELBO)に対する低境界を最適化し,ユーザ特定ガイドを導入する。
論文 参考訳(メタデータ) (2024-10-30T12:05:12Z) - Stein Variational Evolution Strategies [17.315583101484147]
非正規化確率分布から高効率なサンプリング法として, SVGD法(Stein Variational Gradient Descent)がある。
既存の SVGD の勾配のないバージョンは、単純なモンテカルロ近似や、サロゲート分布からの勾配を利用しており、どちらも制限がある。
SVGDのステップと進化戦略(ES)の更新を組み合わせて、勾配のないスタイン変分推論を改善する。
論文 参考訳(メタデータ) (2024-10-14T11:24:41Z) - IPoD: Implicit Field Learning with Point Diffusion for Generalizable 3D Object Reconstruction from Single RGB-D Images [50.4538089115248]
シングルビューRGB-D画像からの3Dオブジェクトの汎用化は依然として難しい課題である。
本稿では,暗黙の場学習と点拡散を調和させる新しい手法IPoDを提案する。
CO3D-v2データセットによる実験では、IPoDの優位性が確認され、Fスコアは7.8%、チャンファー距離は28.6%向上した。
論文 参考訳(メタデータ) (2024-03-30T07:17:37Z) - Bayesian Diffusion Models for 3D Shape Reconstruction [54.69889488052155]
本稿では,トップダウン(優先)情報をボトムアップ(データ駆動)手順と密結合することにより,効果的なベイズ推定を行う予測アルゴリズムを提案する。
3次元形状復元作業におけるBDMの有効性を示す。
論文 参考訳(メタデータ) (2024-03-11T17:55:53Z) - Accelerating Convergence of Stein Variational Gradient Descent via Deep
Unfolding [5.584060970507506]
スタイン変分勾配勾配(SVGD)は、ターゲット分布をサンプリングするために用いられる顕著な粒子ベースの変分勾配推定法である。
本稿では,深層展開(deep Openfolding)と呼ばれる深層学習手法をSVGDに組み込んだ,新しいトレーニング可能なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-23T06:24:57Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - On Stein Variational Neural Network Ensembles [8.178886940116035]
本研究では, 重み空間, 関数空間, ハイブリッド環境で動作する異なるスタイン変分勾配勾配(SVGD)法について検討する。
機能的およびハイブリッドカーネルを用いたSVGDは,深いアンサンブルの限界を克服できることがわかった。
論文 参考訳(メタデータ) (2021-06-20T21:52:46Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - Federated Generalized Bayesian Learning via Distributed Stein
Variational Gradient Descent [38.41707037232561]
本稿では,非パラメトリック一般化ベイズ推論フレームワークDSVGDを提案する。
粒子数を変化させることで、DSVGDは粒子間通信負荷と通信ラウンド数との柔軟なトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-09-11T17:33:22Z) - Kernel Stein Generative Modeling [68.03537693810972]
グラディエント・ランゲヴィン・ダイナミクス(SGLD)は高次元および複雑なデータ分布に関するエネルギーモデルによる印象的な結果を示す。
Stein Variational Gradient Descent (SVGD) は、与えられた分布を近似するために一組の粒子を反復的に輸送する決定論的サンプリングアルゴリズムである。
雑音条件付きカーネルSVGD(NCK-SVGD)を提案する。
論文 参考訳(メタデータ) (2020-07-06T21:26:04Z) - Stein Variational Inference for Discrete Distributions [70.19352762933259]
離散分布を等価なピースワイズ連続分布に変換する単純な一般フレームワークを提案する。
提案手法は,ギブスサンプリングや不連続ハミルトニアンモンテカルロといった従来のアルゴリズムよりも優れている。
我々は,この手法がバイナライズニューラルネットワーク(BNN)のアンサンブルを学習するための有望なツールであることを実証した。
さらに、そのような変換は、勾配のないカーネル化されたStein差分に簡単に適用でき、離散分布の良性(GoF)テストを実行することができる。
論文 参考訳(メタデータ) (2020-03-01T22:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。