論文の概要: Forget-SVGD: Particle-Based Bayesian Federated Unlearning
- arxiv url: http://arxiv.org/abs/2111.12056v1
- Date: Tue, 23 Nov 2021 18:15:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 17:21:20.195447
- Title: Forget-SVGD: Particle-Based Bayesian Federated Unlearning
- Title(参考訳): Forget-SVGD:粒子に基づくベイズ連邦学習
- Authors: Jinu Gong, Osvaldo Simeone, Rahif Kassab, and Joonhyuk Kang
- Abstract要約: Forget-Stein Variational Gradient Descent (Forget-SVGD)はSVGD上に構築されている。
提案手法は,スクラッチから学習する非パラメトリックスキームとの性能比較により,忘れられるデータを除外して検証する。
- 参考スコア(独自算出の注目度): 32.638916321653554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational particle-based Bayesian learning methods have the advantage of
not being limited by the bias affecting more conventional parametric
techniques. This paper proposes to leverage the flexibility of non-parametric
Bayesian approximate inference to develop a novel Bayesian federated unlearning
method, referred to as Forget-Stein Variational Gradient Descent (Forget-SVGD).
Forget-SVGD builds on SVGD - a particle-based approximate Bayesian inference
scheme using gradient-based deterministic updates - and on its distributed
(federated) extension known as Distributed SVGD (DSVGD). Upon the completion of
federated learning, as one or more participating agents request for their data
to be "forgotten", Forget-SVGD carries out local SVGD updates at the agents
whose data need to be "unlearned", which are interleaved with communication
rounds with a parameter server. The proposed method is validated via
performance comparisons with non-parametric schemes that train from scratch by
excluding data to be forgotten, as well as with existing parametric Bayesian
unlearning methods.
- Abstract(参考訳): 変分粒子に基づくベイズ学習法は、従来のパラメトリック手法に影響を与えるバイアスに制限されないという利点がある。
本稿では、非パラメトリックベイズ近似推論の柔軟性を活用して、Forget-Stein Variational Gradient Descent (Forget-SVGD)と呼ばれる新しいベイズ連邦未学習法を開発することを提案する。
Forget-SVGDは、勾配に基づく決定論的更新を用いた粒子ベースの近似ベイズ推論スキームであるSVGDと、分散SVGD(DSVGD)として知られる分散(フェデレート)拡張上に構築されている。
フェデレーション学習が完了すると、1つ以上の参加エージェントがデータを「忘れられる」ように要求すると、Forget-SVGDはパラメータサーバとの通信ラウンドとインターリーブされたデータを必要とするエージェントに対してローカルSVGD更新を実行する。
提案手法は,既存のパラメトリックベイズアンラーニング手法と同様に,忘れられるデータを除外してゼロからトレーニングする非パラメトリックスキームとの性能比較によって検証される。
関連論文リスト
- Bayesian Diffusion Models for 3D Shape Reconstruction [57.44181038281908]
本稿では,トップダウン(優先)情報をボトムアップ(データ駆動)手順と密結合することにより,効果的なベイズ推定を行う予測アルゴリズムを提案する。
3次元形状復元作業におけるBDMの有効性を示す。
論文 参考訳(メタデータ) (2024-03-11T17:55:53Z) - Accelerating Convergence of Stein Variational Gradient Descent via Deep
Unfolding [5.584060970507506]
スタイン変分勾配勾配(SVGD)は、ターゲット分布をサンプリングするために用いられる顕著な粒子ベースの変分勾配推定法である。
本稿では,深層展開(deep Openfolding)と呼ばれる深層学習手法をSVGDに組み込んだ,新しいトレーニング可能なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-23T06:24:57Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - 3DMOTFormer: Graph Transformer for Online 3D Multi-Object Tracking [15.330384668966806]
最先端の3Dマルチオブジェクト追跡(MOT)アプローチは通常、Kalman Filterのような非学習モデルベースのアルゴリズムに依存している。
本稿では3DMOTFormerを提案する。この3D MOTフレームワークはトランスフォーマーアーキテクチャをベースに構築されている。
提案手法は, nuScenesバリデーションとテストスプリットでそれぞれ71.2%, AMOTA68.2%を達成している。
論文 参考訳(メタデータ) (2023-08-12T19:19:58Z) - On Stein Variational Neural Network Ensembles [8.178886940116035]
本研究では, 重み空間, 関数空間, ハイブリッド環境で動作する異なるスタイン変分勾配勾配(SVGD)法について検討する。
機能的およびハイブリッドカーネルを用いたSVGDは,深いアンサンブルの限界を克服できることがわかった。
論文 参考訳(メタデータ) (2021-06-20T21:52:46Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - Facilitate the Parametric Dimension Reduction by Gradient Clipping [1.9671123873378715]
我々は、ニューラルネットワークのトレーニングにより、非パラメトリックからパラメトリックへ、よく知られた次元削減手法であるt分散隣接埋め込み(t-SNE)を拡張した。
本手法は, 一般化を楽しみながら, 非パラメトリックt-SNEと互換性のある埋め込み品質を実現する。
論文 参考訳(メタデータ) (2020-09-30T01:21:22Z) - Federated Generalized Bayesian Learning via Distributed Stein
Variational Gradient Descent [38.41707037232561]
本稿では,非パラメトリック一般化ベイズ推論フレームワークDSVGDを提案する。
粒子数を変化させることで、DSVGDは粒子間通信負荷と通信ラウンド数との柔軟なトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-09-11T17:33:22Z) - DeepGMR: Learning Latent Gaussian Mixture Models for Registration [113.74060941036664]
ポイントクラウドの登録は、3Dコンピュータビジョン、グラフィックス、ロボット工学の基本的な問題である。
本稿では,最初の学習ベース登録法であるDeep Gaussian Mixture Registration(DeepGMR)を紹介する。
提案手法は,最先端の幾何学的および学習的登録手法と比較して,良好な性能を示す。
論文 参考訳(メタデータ) (2020-08-20T17:25:16Z) - Kernel Stein Generative Modeling [68.03537693810972]
グラディエント・ランゲヴィン・ダイナミクス(SGLD)は高次元および複雑なデータ分布に関するエネルギーモデルによる印象的な結果を示す。
Stein Variational Gradient Descent (SVGD) は、与えられた分布を近似するために一組の粒子を反復的に輸送する決定論的サンプリングアルゴリズムである。
雑音条件付きカーネルSVGD(NCK-SVGD)を提案する。
論文 参考訳(メタデータ) (2020-07-06T21:26:04Z) - Stein Variational Inference for Discrete Distributions [70.19352762933259]
離散分布を等価なピースワイズ連続分布に変換する単純な一般フレームワークを提案する。
提案手法は,ギブスサンプリングや不連続ハミルトニアンモンテカルロといった従来のアルゴリズムよりも優れている。
我々は,この手法がバイナライズニューラルネットワーク(BNN)のアンサンブルを学習するための有望なツールであることを実証した。
さらに、そのような変換は、勾配のないカーネル化されたStein差分に簡単に適用でき、離散分布の良性(GoF)テストを実行することができる。
論文 参考訳(メタデータ) (2020-03-01T22:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。