論文の概要: Federated Learning with Diffusion Models for Privacy-Sensitive Vision
Tasks
- arxiv url: http://arxiv.org/abs/2311.16538v1
- Date: Tue, 28 Nov 2023 06:08:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 19:33:34.006718
- Title: Federated Learning with Diffusion Models for Privacy-Sensitive Vision
Tasks
- Title(参考訳): プライバシーに敏感な視覚課題のための拡散モデルによるフェデレーション学習
- Authors: Ye Lin Tun, Chu Myaet Thwal, Ji Su Yoon, Sun Moo Kang, Chaoning Zhang,
Choong Seon Hong
- Abstract要約: 拡散モデルは視覚に関連したタスク、特に画像生成において大きな可能性を持つ。
しかし、それらのトレーニングは一般的に、一般に公開されているソースから収集されたデータに依存して、集中的に行われる。
このアプローチは、データ収集に対するプライバシー上の懸念を伴う医療分野など、多くの領域で実現可能でも実用的でもないかもしれない。
- 参考スコア(独自算出の注目度): 27.780010580879377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have shown great potential for vision-related tasks,
particularly for image generation. However, their training is typically
conducted in a centralized manner, relying on data collected from publicly
available sources. This approach may not be feasible or practical in many
domains, such as the medical field, which involves privacy concerns over data
collection. Despite the challenges associated with privacy-sensitive data, such
domains could still benefit from valuable vision services provided by diffusion
models. Federated learning (FL) plays a crucial role in enabling decentralized
model training without compromising data privacy. Instead of collecting data,
an FL system gathers model parameters, effectively safeguarding the private
data of different parties involved. This makes FL systems vital for managing
decentralized learning tasks, especially in scenarios where privacy-sensitive
data is distributed across a network of clients. Nonetheless, FL presents its
own set of challenges due to its distributed nature and privacy-preserving
properties. Therefore, in this study, we explore the FL strategy to train
diffusion models, paving the way for the development of federated diffusion
models. We conduct experiments on various FL scenarios, and our findings
demonstrate that federated diffusion models have great potential to deliver
vision services to privacy-sensitive domains.
- Abstract(参考訳): 拡散モデルは視覚関連タスク、特に画像生成に大きな可能性を示している。
しかしながら、彼らのトレーニングは通常、公開されているソースから収集したデータに依存する中央集権的な方法で行われる。
このアプローチは、データ収集に関するプライバシの懸念を含む医療分野など、多くの領域で実現可能あるいは実用的なものではありません。
プライバシーに敏感なデータに関わる課題にもかかわらず、そのようなドメインは拡散モデルが提供する貴重なビジョンサービスから恩恵を受けることができる。
フェデレーション学習(fl)は,データのプライバシを損なうことなく分散モデルトレーニングを可能にする上で重要な役割を担っている。
データを収集する代わりに、FLシステムはモデルパラメータを収集し、関係するパーティのプライベートデータを効果的に保護する。
これによりflシステムは、特にプライバシに敏感なデータがクライアントのネットワークに分散しているシナリオにおいて、分散学習タスクの管理に不可欠となる。
それでもFLは、分散した性質とプライバシ保護プロパティのために、独自の課題を提示している。
そこで本研究では, 拡散モデルを訓練するためのFL戦略を考察し, 連成拡散モデルの開発への道を開く。
我々は様々なFLシナリオの実験を行い、フェデレーション拡散モデルが、プライバシーに敏感なドメインにビジョンサービスを提供する大きな可能性を実証した。
関連論文リスト
- Exploring Privacy and Fairness Risks in Sharing Diffusion Models: An
Adversarial Perspective [31.010937126289953]
我々は,拡散モデルの共有に伴う潜在的なプライバシーと公平性リスクについて,敵対的な視点で検討する。
提案手法は,受信機の下流モデルに悪影響を及ぼすために,フェアネス中毒攻撃を実施できることを実証する。
実世界のデータセットで行った実験は、異なる種類の拡散モデルに対して顕著な攻撃性能を示す。
論文 参考訳(メタデータ) (2024-02-28T12:21:12Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Phoenix: A Federated Generative Diffusion Model [6.09170287691728]
大規模な集中型データセットで生成モデルをトレーニングすることで、データのプライバシやセキュリティ、アクセシビリティといった面での課題が発生する可能性がある。
本稿では,フェデレートラーニング(FL)技術を用いて,複数のデータソースにまたがる拡散確率モデル(DDPM)の学習手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T01:43:09Z) - Fair Differentially Private Federated Learning Framework [0.0]
Federated Learning(FL)は、参加者が個々のデータセットを共有することなく、協力し、共有モデルをトレーニングすることのできる、分散機械学習戦略である。
FLではプライバシと公平性が重要な考慮事項である。
本稿では、検証データなしで公正なグローバルモデルを作成し、グローバルなプライベートディファレンシャルモデルを作成するという課題に対処する枠組みを提案する。
論文 参考訳(メタデータ) (2023-05-23T09:58:48Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Personalized Federated Learning over non-IID Data for Indoor
Localization [17.03722514121803]
我々は、最近のフェデレートラーニングスキームを用いて、パーソナライズされたモデルのセットをトレーニングする。
本稿では、最近のFLスキームを用いて、ベイズ規則により最適に融合されたパーソナライズされたモデルの集合を訓練する。
論文 参考訳(メタデータ) (2021-07-09T03:31:16Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。