論文の概要: Enable the Right to be Forgotten with Federated Client Unlearning in Medical Imaging
- arxiv url: http://arxiv.org/abs/2407.02356v1
- Date: Tue, 2 Jul 2024 15:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 14:56:27.058671
- Title: Enable the Right to be Forgotten with Federated Client Unlearning in Medical Imaging
- Title(参考訳): 医用画像におけるフェデレーション・クライアント・アンラーニングを許す権利
- Authors: Zhipeng Deng, Luyang Luo, Hao Chen,
- Abstract要約: 医用画像における最初のFederated Client Unlearningフレームワークを紹介する。
クライアントのアンラーニングプロセスにおいて、提案されたモデルコントラストのアンラーニングは、機能レベルのアンラーニングに向けた先駆的なステップである。
頭蓋内出血の診断と皮膚病変の診断を含む2つの公開医用画像データセットの枠組みについて検討した。
- 参考スコア(独自算出の注目度): 4.344828846048128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The right to be forgotten, as stated in most data regulations, poses an underexplored challenge in federated learning (FL), leading to the development of federated unlearning (FU). However, current FU approaches often face trade-offs between efficiency, model performance, forgetting efficacy, and privacy preservation. In this paper, we delve into the paradigm of Federated Client Unlearning (FCU) to guarantee a client the right to erase the contribution or the influence, introducing the first FU framework in medical imaging. In the unlearning process of a client, the proposed model-contrastive unlearning marks a pioneering step towards feature-level unlearning, and frequency-guided memory preservation ensures smooth forgetting of local knowledge while maintaining the generalizability of the trained global model, thus avoiding performance compromises and guaranteeing rapid post-training. We evaluated our FCU framework on two public medical image datasets, including Intracranial hemorrhage diagnosis and skin lesion diagnosis, demonstrating that our framework outperformed other state-of-the-art FU frameworks, with an expected speed-up of 10-15 times compared with retraining from scratch. The code and the organized datasets can be found at: https://github.com/dzp2095/FCU.
- Abstract(参考訳): 忘れられる権利は、ほとんどのデータ規則で述べられているように、フェデレート・ラーニング(FL)において未解決の課題となり、フェデレーション・アンラーニング(FU)の発展につながる。
しかしながら、現在のFUアプローチは、効率性、モデルパフォーマンス、有効性を忘れること、プライバシ保護の間のトレードオフに直面していることが多い。
本稿では、FCU(Federated Client Unlearning)のパラダイムを掘り下げ、クライアントが貢献や影響を消す権利を保証し、医療画像における最初のFUフレームワークを導入する。
クライアントのアンラーニングプロセスにおいて、提案したモデルコントラストアンラーニングは、特徴レベルのアンラーニングに向けた先駆的なステップであり、周波数誘導メモリ保存は、訓練されたグローバルモデルの一般化性を維持しながら、局所的な知識を円滑に忘れることを保証する。
われわれは,頭蓋内出血診断と皮膚病変診断を含む2つの医用画像データセットを用いてFCUフレームワークを評価し,本フレームワークが他の最先端のFUフレームワークより優れており,スクラッチからの再トレーニングと比較して10~15倍の速度向上が期待できることを示した。
コードと組織化されたデータセットは、https://github.com/dzp2095/FCUで見ることができる。
関連論文リスト
- Privacy-Preserving Federated Unlearning with Certified Client Removal [18.36632825624581]
未学習の最先端の方法は、勾配や局所的に訓練されたモデルなど、FLクライアントからの履歴データを使用する。
本稿では,二要素計算(Two-Party Computation, 2PC)技術を用いたプライバシー保護フェデレーション・アンラーニング手法であるStarfishを提案する。
論文 参考訳(メタデータ) (2024-04-15T12:27:07Z) - Freeze the backbones: A Parameter-Efficient Contrastive Approach to
Robust Medical Vision-Language Pre-training [15.790435273150083]
本稿では,事前に訓練した画像やテキストエンコーダの医療知識を凍結保存して保存するバックボーン非依存型適応フレームワークを提案する。
当社のフレームワークは,既存の事前トレーニングアプローチと比較して,トレーニング可能なパラメータを90%以上削減しながら,競争力のあるパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-01-02T12:14:41Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Efficient Vertical Federated Learning with Secure Aggregation [10.295508659999783]
本稿では,安全アグリゲーションのための最先端セキュリティモジュールを用いて,垂直FLを安全かつ効率的に訓練するための新しい設計を提案する。
我々は,同相暗号 (HE) と比較して9.1e2 3.8e4 の高速化を図りながら,本手法がトレーニング性能に影響を及ぼさないことを実証的に実証した。
論文 参考訳(メタデータ) (2023-05-18T18:08:36Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Closing the Generalization Gap of Cross-silo Federated Medical Image
Segmentation [66.44449514373746]
クロスサイロ・フェデレーション・ラーニング (FL) は近年, 深層学習による医用画像解析において注目されている。
FLでトレーニングされたモデルと、集中的なトレーニングでトレーニングされたモデルの間にはギャップがある。
本稿では,クライアントの問題を回避し,ドリフトギャップを解消するための新しいトレーニングフレームワークであるFedSMを提案する。
論文 参考訳(メタデータ) (2022-03-18T19:50:07Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Federated Semi-supervised Medical Image Classification via Inter-client
Relation Matching [58.26619456972598]
フェデレートラーニング(FL)は、ディープ・ネットワークのトレーニングのために、分散医療機関とのコラボレーションで人気が高まっている。
本報告では,実践的かつ困難なFL問題であるtextitFederated Semi-supervised Learning (FSSL)について検討する。
本稿では, 従来の整合性正規化機構を改良し, クライアント間関係マッチング方式を提案する。
論文 参考訳(メタデータ) (2021-06-16T07:58:00Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。