論文の概要: Reducing bias and increasing utility by federated generative modeling of
medical images using a centralized adversary
- arxiv url: http://arxiv.org/abs/2101.07235v1
- Date: Mon, 18 Jan 2021 18:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 09:51:38.070559
- Title: Reducing bias and increasing utility by federated generative modeling of
medical images using a centralized adversary
- Title(参考訳): 集中的相手を用いた医用画像の連合生成モデルによるバイアス低減と有用性の向上
- Authors: Jean-Francois Rajotte, Sumit Mukherjee, Caleb Robinson, Anthony Ortiz,
Christopher West, Juan Lavista Ferres, Raymond T Ng
- Abstract要約: 共同学習を可能にする生成メカニズムであるFELICIA(Federated LearnIng with a CentralIzed Adversary)を紹介します。
限定的かつ偏りのあるデータを持つデータ所有者が、すべてのソースからのデータをプライベートに保ちながら、他のデータ所有者の利益を享受する方法を示します。
これは、プライバシー法がデータをローカルな施設外で共有することを防ぐ医療画像解析において一般的なシナリオである。
- 参考スコア(独自算出の注目度): 10.809871958865447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce FELICIA (FEderated LearnIng with a CentralIzed Adversary) a
generative mechanism enabling collaborative learning. In particular, we show
how a data owner with limited and biased data could benefit from other data
owners while keeping data from all the sources private. This is a common
scenario in medical image analysis where privacy legislation prevents data from
being shared outside local premises. FELICIA works for a large family of
Generative Adversarial Networks (GAN) architectures including vanilla and
conditional GANs as demonstrated in this work. We show that by using the
FELICIA mechanism, a data owner with limited image samples can generate
high-quality synthetic images with high utility while neither data owners has
to provide access to its data. The sharing happens solely through a central
discriminator that has access limited to synthetic data. Here, utility is
defined as classification performance on a real test set. We demonstrate these
benefits on several realistic healthcare scenarions using benchmark image
datasets (MNIST, CIFAR-10) as well as on medical images for the task of skin
lesion classification. With multiple experiments, we show that even in the
worst cases, combining FELICIA with real data gracefully achieves performance
on par with real data while most results significantly improves the utility.
- Abstract(参考訳): 我々は、協調学習を可能にする生成メカニズムであるFELICIA(Federated LearnIng with a CentralIzed Adversary)を紹介する。
特に、限定的かつ偏りのあるデータを持つデータ所有者が、すべてのソースからのデータをプライベートに保ちながら、他のデータ所有者の利益を享受できることを示す。
これは、プライバシー法がデータをローカルな施設外で共有することを防ぐ医療画像解析において一般的なシナリオである。
FELICIAは、この研究で示されているように、バニラや条件付きGANを含むGAN(Generative Adversarial Networks)アーキテクチャの大規模なファミリーで動作する。
FELICIA機構を用いることで,データ所有者がデータへのアクセスを提供しなくても,画像サンプルに制限のあるデータ所有者が高能率で高品質な合成画像を生成することができることを示す。
共有は、合成データに限られる中央の識別器を通してのみ行われる。
ここで、ユーティリティは実際のテストセットの分類性能として定義される。
皮膚病変分類のための医用画像およびベンチマーク画像データセット(mnist, cifar-10)を用いて,いくつかの現実的な医療シナリオにおいて,これらの利点を実証する。
複数の実験で、最悪の場合においても、FELICIAと実データを組み合わせることで、実データと同等の性能が得られ、ほとんどの結果が実用性を大幅に向上することを示した。
関連論文リスト
- DataDream: Few-shot Guided Dataset Generation [90.09164461462365]
実データ分布をより忠実に表現する分類データセットを合成するためのフレームワークを提案する。
DataDream fine-tunes LoRA weights for the image generation model on the few real image before generated the training data using the adapt model。
次に、合成データを用いてCLIPのLoRA重みを微調整し、様々なデータセットに対する以前のアプローチよりも下流画像の分類を改善する。
論文 参考訳(メタデータ) (2024-07-15T17:10:31Z) - Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - The (de)biasing effect of GAN-based augmentation methods on skin lesion
images [3.441021278275805]
新しい医学データセットは、学習プロセスに影響を与える刺激的な相関の源であるかもしれない。
データ不均衡を軽減する1つのアプローチは、GAN(Generative Adversarial Networks)によるデータ拡張である。
この研究は、それらのバイアス継承と合成データがモデルにどのように影響するかを比較するために、無条件および条件付きGANを探索した。
論文 参考訳(メタデータ) (2022-06-30T10:32:35Z) - Escaping Data Scarcity for High-Resolution Heterogeneous Face
Hallucination [68.78903256687697]
Heterogeneous Face Recognition (HFR) では、視覚や熱といった2つの異なる領域にまたがる顔のマッチングが目的である。
合成によるギャップを埋めようとする最近の手法は有望な結果を得たが、ペアトレーニングデータの不足により、その性能は依然として制限されている。
本稿では,HFRのための新しい顔幻覚パラダイムを提案する。これはデータ効率のよい合成を可能にするだけでなく,プライバシポリシーを破ることなくモデルトレーニングのスケールアップを可能にする。
論文 参考訳(メタデータ) (2022-03-30T20:44:33Z) - A Deep Learning Approach to Private Data Sharing of Medical Images Using
Conditional GANs [1.2099130772175573]
COSENTYX (secukinumab) Ankylosing Spondylitis の臨床的検討に基づいて合成データセットを生成する方法を提案する。
本稿では, 画像の忠実度, サンプルの多様性, データセットのプライバシーの3つの重要な指標について, 合成データセットを生成し, その特性を詳細に分析する手法を提案する。
論文 参考訳(メタデータ) (2021-06-24T17:24:06Z) - Overcoming Barriers to Data Sharing with Medical Image Generation: A
Comprehensive Evaluation [17.983449515155414]
我々は、GAN(Generative Adversarial Networks)を用いて、合成患者データからなる医用画像データセットを作成する。
合成画像は、理想的には、ソースデータセットと類似した統計特性を持つが、機密性の高い個人情報は含まない。
合成画像の品質は、合成データセットと実データセットの両方で訓練された予測モデルの性能差によって測定する。
論文 参考訳(メタデータ) (2020-11-29T15:41:46Z) - Private data sharing between decentralized users through the privGAN
architecture [1.3923892290096642]
本研究では、データ所有者が実際のデータを共有することなく、データの合成版や偽版を共有する方法を提案する。
このアプローチが、さまざまなサイズのサブセットに適用されると、実際のデータセットのユーティリティよりも、所有者の利便性が向上することを示す。
論文 参考訳(メタデータ) (2020-09-14T22:06:13Z) - GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially
Private Generators [74.16405337436213]
我々は、GS-WGAN(Gradient-sanitized Wasserstein Generative Adrial Networks)を提案する。
GS-WGANは、厳格なプライバシー保証を備えた機密データの衛生的な形式での公開を可能にする。
このアプローチは、複数のメトリクスにわたる最先端のアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2020-06-15T10:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。