論文の概要: Reducing bias and increasing utility by federated generative modeling of
medical images using a centralized adversary
- arxiv url: http://arxiv.org/abs/2101.07235v1
- Date: Mon, 18 Jan 2021 18:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 09:51:38.070559
- Title: Reducing bias and increasing utility by federated generative modeling of
medical images using a centralized adversary
- Title(参考訳): 集中的相手を用いた医用画像の連合生成モデルによるバイアス低減と有用性の向上
- Authors: Jean-Francois Rajotte, Sumit Mukherjee, Caleb Robinson, Anthony Ortiz,
Christopher West, Juan Lavista Ferres, Raymond T Ng
- Abstract要約: 共同学習を可能にする生成メカニズムであるFELICIA(Federated LearnIng with a CentralIzed Adversary)を紹介します。
限定的かつ偏りのあるデータを持つデータ所有者が、すべてのソースからのデータをプライベートに保ちながら、他のデータ所有者の利益を享受する方法を示します。
これは、プライバシー法がデータをローカルな施設外で共有することを防ぐ医療画像解析において一般的なシナリオである。
- 参考スコア(独自算出の注目度): 10.809871958865447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce FELICIA (FEderated LearnIng with a CentralIzed Adversary) a
generative mechanism enabling collaborative learning. In particular, we show
how a data owner with limited and biased data could benefit from other data
owners while keeping data from all the sources private. This is a common
scenario in medical image analysis where privacy legislation prevents data from
being shared outside local premises. FELICIA works for a large family of
Generative Adversarial Networks (GAN) architectures including vanilla and
conditional GANs as demonstrated in this work. We show that by using the
FELICIA mechanism, a data owner with limited image samples can generate
high-quality synthetic images with high utility while neither data owners has
to provide access to its data. The sharing happens solely through a central
discriminator that has access limited to synthetic data. Here, utility is
defined as classification performance on a real test set. We demonstrate these
benefits on several realistic healthcare scenarions using benchmark image
datasets (MNIST, CIFAR-10) as well as on medical images for the task of skin
lesion classification. With multiple experiments, we show that even in the
worst cases, combining FELICIA with real data gracefully achieves performance
on par with real data while most results significantly improves the utility.
- Abstract(参考訳): 我々は、協調学習を可能にする生成メカニズムであるFELICIA(Federated LearnIng with a CentralIzed Adversary)を紹介する。
特に、限定的かつ偏りのあるデータを持つデータ所有者が、すべてのソースからのデータをプライベートに保ちながら、他のデータ所有者の利益を享受できることを示す。
これは、プライバシー法がデータをローカルな施設外で共有することを防ぐ医療画像解析において一般的なシナリオである。
FELICIAは、この研究で示されているように、バニラや条件付きGANを含むGAN(Generative Adversarial Networks)アーキテクチャの大規模なファミリーで動作する。
FELICIA機構を用いることで,データ所有者がデータへのアクセスを提供しなくても,画像サンプルに制限のあるデータ所有者が高能率で高品質な合成画像を生成することができることを示す。
共有は、合成データに限られる中央の識別器を通してのみ行われる。
ここで、ユーティリティは実際のテストセットの分類性能として定義される。
皮膚病変分類のための医用画像およびベンチマーク画像データセット(mnist, cifar-10)を用いて,いくつかの現実的な医療シナリオにおいて,これらの利点を実証する。
複数の実験で、最悪の場合においても、FELICIAと実データを組み合わせることで、実データと同等の性能が得られ、ほとんどの結果が実用性を大幅に向上することを示した。
- 全文 参考訳へのリンク
関連論文リスト
- Escaping Data Scarcity for High-Resolution Heterogeneous Face
Hallucination [68.78903256687697]
Heterogeneous Face Recognition (HFR) では、視覚や熱といった2つの異なる領域にまたがる顔のマッチングが目的である。
合成によるギャップを埋めようとする最近の手法は有望な結果を得たが、ペアトレーニングデータの不足により、その性能は依然として制限されている。
本稿では,HFRのための新しい顔幻覚パラダイムを提案する。これはデータ効率のよい合成を可能にするだけでなく,プライバシポリシーを破ることなくモデルトレーニングのスケールアップを可能にする。
論文 参考訳(メタデータ) (2022-03-30T20:44:33Z) - Downstream Fairness Caveats with Synthetic Healthcare Data [21.54509987309669]
プライバシ法は患者のプライバシーを守るためにElectronic Medical Records (EMR)のような健康データへのアクセスを制限する。
本稿では, 偏見を生かした医療データを総合的に評価し, フェアネス緩和技術が便益性に与える影響について検討する。
論文 参考訳(メタデータ) (2022-03-09T00:52:47Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - FedMed-ATL: Misaligned Unpaired Brain Image Synthesis via Affine
Transform Loss [58.58979566599889]
脳画像合成のための新しい自己教師型学習(FedMed)を提案する。
アフィン変換損失(ATL)は、プライバシー法に違反することなく、ひどく歪んだ画像を使用するように定式化された。
提案手法は, 極めて不整合かつ不整合なデータ設定下での合成結果の品質の両方において, 高度な性能を示す。
論文 参考訳(メタデータ) (2022-01-29T13:45:39Z) - FedMed-GAN: Federated Multi-Modal Unsupervised Brain Image Synthesis [55.29343228661974]
我々は、フェデレートされたマルチモーダルな教師なし脳画像合成のための新しいベンチマークを構築した(FedMed-GAN)。
本稿では,FedMed-GANの生成モード崩壊問題を解消し,差分プライバシーによる性能低下を軽減するために,新たなエッジ損失を提案する。
論文 参考訳(メタデータ) (2022-01-22T02:50:29Z) - A Deep Learning Approach to Private Data Sharing of Medical Images Using
Conditional GANs [1.2099130772175573]
COSENTYX (secukinumab) Ankylosing Spondylitis の臨床的検討に基づいて合成データセットを生成する方法を提案する。
本稿では, 画像の忠実度, サンプルの多様性, データセットのプライバシーの3つの重要な指標について, 合成データセットを生成し, その特性を詳細に分析する手法を提案する。
論文 参考訳(メタデータ) (2021-06-24T17:24:06Z) - Ensembles of GANs for synthetic training data generation [7.835101177261939]
トレーニングデータ不足は、ほとんどのディープラーニングプラクティスにとって大きなボトルネックです。
本研究は,gans(generative adversarial networks)が生成した合成画像のトレーニングデータとしての利用について検討する。
論文 参考訳(メタデータ) (2021-04-23T19:38:48Z) - FLOP: Federated Learning on Medical Datasets using Partial Networks [84.54663831520853]
新型コロナウイルスの感染拡大で医療資源が不足している。
新型コロナウイルスの診断を緩和するために、さまざまなデータ駆動型ディープラーニングモデルが開発されている。
患者のプライバシー上の懸念から、データそのものはまだ乏しい。
我々は、textbfPartial Networks (FLOP) を用いた、シンプルで効果的な textbfFederated textbfL textbfon Medical データセットを提案する。
論文 参考訳(メタデータ) (2021-02-10T01:56:58Z) - Differentially Private Synthetic Medical Data Generation using
Convolutional GANs [7.2372051099165065]
R'enyiの差分プライバシーを用いた合成データ生成のための差分プライベートフレームワークを開発する。
提案手法は, 畳み込み自己エンコーダと畳み込み生成対向ネットワークを利用して, 生成した合成データの重要な特性をある程度保存する。
私たちのモデルは、同じプライバシー予算の下で既存の最新モデルを上回ることを実証します。
論文 参考訳(メタデータ) (2020-12-22T01:03:49Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Overcoming Barriers to Data Sharing with Medical Image Generation: A
Comprehensive Evaluation [17.983449515155414]
我々は、GAN(Generative Adversarial Networks)を用いて、合成患者データからなる医用画像データセットを作成する。
合成画像は、理想的には、ソースデータセットと類似した統計特性を持つが、機密性の高い個人情報は含まない。
合成画像の品質は、合成データセットと実データセットの両方で訓練された予測モデルの性能差によって測定する。
論文 参考訳(メタデータ) (2020-11-29T15:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。