論文の概要: Decentralized Differentially Private Segmentation with PATE
- arxiv url: http://arxiv.org/abs/2004.06567v1
- Date: Fri, 10 Apr 2020 00:05:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 20:08:37.854496
- Title: Decentralized Differentially Private Segmentation with PATE
- Title(参考訳): PATEによる分散分別分割
- Authors: Dominik Fay, Jens Sj\"olund and Tobias J. Oechtering
- Abstract要約: PATEが意味的セグメンテーションにどのように適応できるかを示す。
Brain tumorデータセットでは、AutoencoderベースのPATE変種が、ノイズの多いフェデレーション平均化に基づいて、プライバシ作業のための高Dice係数を達成する。
- 参考スコア(独自算出の注目度): 19.074694101300373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When it comes to preserving privacy in medical machine learning, two
important considerations are (1) keeping data local to the institution and (2)
avoiding inference of sensitive information from the trained model. These are
often addressed using federated learning and differential privacy,
respectively. However, the commonly used Federated Averaging algorithm requires
a high degree of synchronization between participating institutions. For this
reason, we turn our attention to Private Aggregation of Teacher Ensembles
(PATE), where all local models can be trained independently without
inter-institutional communication. The purpose of this paper is thus to explore
how PATE -- originally designed for classification -- can best be adapted for
semantic segmentation. To this end, we build low-dimensional representations of
segmentation masks which the student can obtain through low-sensitivity queries
to the private aggregator. On the Brain Tumor Segmentation (BraTS 2019)
dataset, an Autoencoder-based PATE variant achieves a higher Dice coefficient
for the same privacy guarantee than prior work based on noisy Federated
Averaging.
- Abstract(参考訳): 医療機械学習におけるプライバシの保護に関しては,(1)データを機関にローカルに保持すること,(2)訓練されたモデルから機密情報の推測を避けること,の2つの重要な考察がある。
これらは、それぞれフェデレーション学習と差分プライバシーを使って対処されることが多い。
しかし、一般的に使用されるフェデレーション平均化アルゴリズムは、参加機関間の高い同期を必要とする。
このような理由から、我々は、すべてのローカルモデルを組織間コミュニケーションなしで独立して訓練できるPATE(Private Aggregation of Teacher Ensembles)に注意を向ける。
そこで本論文の目的は,PATE(もともと分類用に設計された)がセマンティックセグメンテーションにどのように適応できるかを検討することである。
この目的のために,学生がプライベートアグリゲータへの低感度クエリを通じて得られるセグメンテーションマスクの低次元表現を構築する。
Brain tumor Segmentation (BraTS 2019)データセットでは、AutoencoderベースのPATE変種が、ノイズの多いフェデレーション平均化に基づく以前の作業よりも、同じプライバシ保証に対するDice係数が高い。
関連論文リスト
- A Stochastic Optimization Framework for Private and Fair Learning From Decentralized Data [14.748203847227542]
プライベート・フェア・フェデレーション・ラーニング(FL)のための新しいアルゴリズムを開発した。
我々のアルゴリズムは、サイロ間レコードレベル差分プライバシー(ISRL-DP)を満たす。
実験では、さまざまなプライバシレベルにわたるアルゴリズムのトレードオフとして、最先端の公正性・正確性フレームワークが実証されている。
論文 参考訳(メタデータ) (2024-11-12T15:51:35Z) - Using Decentralized Aggregation for Federated Learning with Differential
Privacy [0.32985979395737774]
フェデレートラーニング(FL)は、データをローカルノードに保持することで、ある程度のプライバシーを提供する。
本研究は、ベンチマークデータセットを用いて、差分プライバシー(DP)を用いたFL実験環境をデプロイする。
論文 参考訳(メタデータ) (2023-11-27T17:02:56Z) - Unlocking Accuracy and Fairness in Differentially Private Image
Classification [43.53494043189235]
差別化プライバシ(DP)は、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
DPを微調整した事前学習基礎モデルでは,非私的分類器と同様の精度が得られることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:42:33Z) - Differentially private partitioned variational inference [28.96767727430277]
複数のデバイスに分散している機密データから、プライバシ保護モデルを学ぶことは、ますます重要な問題である。
ベイズ分布に対する変分近似を学習するための最初の一般フレームワークである差分分割変分推論について述べる。
論文 参考訳(メタデータ) (2022-09-23T13:58:40Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。