論文の概要: Client-Level Differential Privacy via Adaptive Intermediary in Federated
Medical Imaging
- arxiv url: http://arxiv.org/abs/2307.12542v2
- Date: Mon, 15 Jan 2024 16:18:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 02:11:22.399513
- Title: Client-Level Differential Privacy via Adaptive Intermediary in Federated
Medical Imaging
- Title(参考訳): Federated Medical ImagingにおけるAdaptive Intermediaryによるクライアントレベル差分プライバシー
- Authors: Meirui Jiang, Yuan Zhong, Anjie Le, Xiaoxiao Li, Qi Dou
- Abstract要約: プライバシ保護とパフォーマンスの差分プライバシ(DP)のトレードオフは、現実の医療シナリオではいまだ検討されていない。
本稿では,コミュニケーションにおけるプライバシを重視したクライアントレベルのDPのコンテキスト下でのトレードオフを最適化することを提案する。
プライバシを損なうことなくパフォーマンスを向上させるための適応型仲介手法を提案する。
- 参考スコア(独自算出の注目度): 33.494287036763716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent progress in enhancing the privacy of federated learning (FL)
via differential privacy (DP), the trade-off of DP between privacy protection
and performance is still underexplored for real-world medical scenario. In this
paper, we propose to optimize the trade-off under the context of client-level
DP, which focuses on privacy during communications. However, FL for medical
imaging involves typically much fewer participants (hospitals) than other
domains (e.g., mobile devices), thus ensuring clients be differentially private
is much more challenging. To tackle this problem, we propose an adaptive
intermediary strategy to improve performance without harming privacy.
Specifically, we theoretically find splitting clients into sub-clients, which
serve as intermediaries between hospitals and the server, can mitigate the
noises introduced by DP without harming privacy. Our proposed approach is
empirically evaluated on both classification and segmentation tasks using two
public datasets, and its effectiveness is demonstrated with significant
performance improvements and comprehensive analytical studies. Code is
available at: https://github.com/med-air/Client-DP-FL.
- Abstract(参考訳): 近年、差分プライバシー(DP)による連邦学習(FL)のプライバシー向上が進んでいるが、実際の医療シナリオでは、プライバシ保護とパフォーマンスの間のDPのトレードオフが未検討である。
本稿では,コミュニケーションにおけるプライバシに着目したクライアントレベルのDPのコンテキスト下でのトレードオフの最適化を提案する。
しかし、医療画像のためのflは、通常、他のドメイン(モバイルデバイスなど)よりも参加者(病院)がはるかに少ないため、クライアントの差分プライベート性を保証することがずっと難しい。
この問題に対処するために,プライバシを損なうことなくパフォーマンスを向上させるための適応的仲介戦略を提案する。
具体的には,病院とサーバ間の仲介を行うサブクライアントにクライアントを分割することで,プライバシを損なうことなくdpによるノイズを軽減することができる。
提案手法は,2つの公開データセットを用いた分類とセグメンテーションのタスクについて実験的に評価し,その性能改善と総合的な分析研究によってその効果を実証した。
コードはhttps://github.com/med-air/client-dp-fl。
関連論文リスト
- Federated Instruction Tuning of LLMs with Domain Coverage Augmentation [35.54111318340366]
Federated Domain-specific Instruction Tuning (FedDIT)は、クロスクライアントなプライベートデータとサーバサイドの公開データを使って、命令拡張を行う。
我々は,欲求のあるクライアントセンターの選択と検索に基づく拡張を通じて,ドメインカバレッジを最適化するFedDCAを提案する。
また,多量の公開データを用いたメモリ抽出攻撃に対するプライバシ保護についても検討した。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Prompt-based Personalized Federated Learning for Medical Visual Question
Answering [56.002377299811656]
本稿では,データの不均一性とプライバシの懸念に対処するための,新しいプロンプトベースのパーソナライズド・フェデレーション・ラーニング(pFL)手法を提案する。
我々は、異なる臓器からの医療データセットをクライアントとみなし、各クライアントに対してパーソナライズされたトランスフォーマーベースのVQAモデルをトレーニングするためにpFLを使用する。
論文 参考訳(メタデータ) (2024-02-15T03:09:54Z) - Differential Privacy for Adaptive Weight Aggregation in Federated Tumor
Segmentation [0.16746114653388383]
Federated Learning(FL)は、個々のクライアントデータのプライバシを尊重しながら、公平なグローバルモデルを作成することによって、プライバシを保護する分散機械学習アプローチである。
医用画像セグメンテーションにおける差分プライバシー(DP)統合ディープラーニングフレームワークを提案する。
我々は, 類似度重み付け法(SimAgg)を, 脳腫瘍セグメント化のための差分プライベート類似度重み付けアルゴリズムDP-SimAggアルゴリズムに拡張する。
論文 参考訳(メタデータ) (2023-08-01T21:59:22Z) - A Client-server Deep Federated Learning for Cross-domain Surgical Image
Segmentation [18.402074964118697]
本稿では2次元画像分割のためのクロスドメイン適応問題の解法を提案する。
医用画像解析におけるディープラーニングアーキテクチャは、より良い一般化のために広範なトレーニングデータを必要とする。
クロスドメイン適応のためのクライアントサーバのディープフェデレーションアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-14T19:49:47Z) - "Am I Private and If So, how Many?" -- Using Risk Communication Formats
for Making Differential Privacy Understandable [0.0]
我々は、差別化プライバシのプライバシリスクモデルと合わせて、リスクコミュニケーションフォーマットを適応する。
我々はこれらの新しいプライバシーコミュニケーションフォーマットをクラウドソーシング研究で評価する。
論文 参考訳(メタデータ) (2022-04-08T13:30:07Z) - Federated Learning with Adaptive Batchnorm for Personalized Healthcare [47.52430258876696]
ドメインシフトに対処し、ローカルクライアント向けにパーソナライズされたモデルを得るためにAdaFedを提案する。
AdaFedはバッチ正規化レイヤの統計を通じて、クライアント間の類似性を学ぶ。
5つの医療ベンチマークの実験では、AdaFedは最先端の方法よりも精度が高いことが示されている。
論文 参考訳(メタデータ) (2021-12-01T11:36:56Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。