論文の概要: CorGAN: Correlation-Capturing Convolutional Generative Adversarial
Networks for Generating Synthetic Healthcare Records
- arxiv url: http://arxiv.org/abs/2001.09346v2
- Date: Wed, 4 Mar 2020 19:22:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 00:09:53.605532
- Title: CorGAN: Correlation-Capturing Convolutional Generative Adversarial
Networks for Generating Synthetic Healthcare Records
- Title(参考訳): CorGAN:総合医療記録作成のための相関キャプチャ・コンボリューショナル・ジェネレーション・ネットワーク
- Authors: Amirsina Torfi, Edward A. Fox
- Abstract要約: 本稿では,CorGAN (Relationed-capturing Generative Adversarial Network) という,人工的な医療記録を生成するフレームワークを提案する。
モデル忠実度を示すために,CorGANは各種機械学習設定における実データと同様の性能の合成データを生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have demonstrated high-quality performance in areas such
as image classification and speech processing. However, creating a deep
learning model using electronic health record (EHR) data, requires addressing
particular privacy challenges that are unique to researchers in this domain.
This matter focuses attention on generating realistic synthetic data while
ensuring privacy. In this paper, we propose a novel framework called
correlation-capturing Generative Adversarial Network (CorGAN), to generate
synthetic healthcare records. In CorGAN we utilize Convolutional Neural
Networks to capture the correlations between adjacent medical features in the
data representation space by combining Convolutional Generative Adversarial
Networks and Convolutional Autoencoders. To demonstrate the model fidelity, we
show that CorGAN generates synthetic data with performance similar to that of
real data in various Machine Learning settings such as classification and
prediction. We also give a privacy assessment and report on statistical
analysis regarding realistic characteristics of the synthetic data. The
software of this work is open-source and is available at:
https://github.com/astorfi/cor-gan.
- Abstract(参考訳): ディープラーニングモデルは、画像分類や音声処理などの領域で高品質な性能を示す。
しかし、電子健康記録(EHR)データを用いたディープラーニングモデルを作成するには、この領域の研究者特有の特定のプライバシー問題に対処する必要がある。
この問題は、プライバシーを確保しながらリアルな合成データを生成することに焦点を当てている。
本稿では,CorGAN (Relationed-capturing Generative Adversarial Network) という,人工的な医療記録を生成する新しいフレームワークを提案する。
corganでは,畳み込みニューラルネットワークを用いて,畳み込み生成型adversarial networkと畳み込み型オートエンコーダを組み合わせたデータ表現空間における隣接する医療的特徴の相関関係を捉える。
モデル忠実度を示すために,CorGANは,分類や予測などの機械学習環境において,実データと同様の性能の合成データを生成する。
また,合成データの現実的特性に関する統計分析について,プライバシー評価と報告を行う。
この作業のソフトウェアはオープンソースであり、https://github.com/astorfi/cor-gan.com/で入手できる。
関連論文リスト
- Cancer-Net SCa-Synth: An Open Access Synthetically Generated 2D Skin Lesion Dataset for Skin Cancer Classification [65.83291923029985]
アメリカ合衆国では、皮膚がんが最も一般的に診断されるがんと位置づけられており、公衆衛生上の問題となっている。
データセットのキュレーションとディープラーニングの進歩により、皮膚がんの迅速かつ正確な検出が期待できる。
Cancer-Net SCa- Synthは、皮膚がん分類のためのオープンアクセス合成された2D皮膚病変データセットである。
論文 参考訳(メタデータ) (2024-11-08T02:04:21Z) - GaNDLF-Synth: A Framework to Democratize Generative AI for (Bio)Medical Imaging [0.36638033546156024]
Generative Artificial Intelligence(GenAI)は、AIの分野であり、既存のデータから新しいデータサンプルを作成する。
本稿では、GenAIの背景とモチベーションを考察し、GANDLF- Synth(Generally Nuanced Deep Learning Framework for Synthesis)を紹介する。
GaNDLF- Synthは、オートエンコーダ、生成逆数ネットワーク、合成モデルなど、様々なアルゴリズムの統一的な抽象化を記述する。
論文 参考訳(メタデータ) (2024-09-30T19:25:01Z) - EchoNet-Synthetic: Privacy-preserving Video Generation for Safe Medical Data Sharing [5.900946696794718]
本稿では,高忠実度,長大かつアクセス可能な完全データサンプルをほぼリアルタイムに生成するモデルを提案する。
本研究では,拡散モデルに基づく生成手法を開発し,医用ビデオデータセットの匿名化のためのプロトコルを提案する。
完全合成でプライバシに適合したエコー心電図データセットであるEchoNet-Syntheticについて述べる。
論文 参考訳(メタデータ) (2024-06-02T17:18:06Z) - PathLDM: Text conditioned Latent Diffusion Model for Histopathology [62.970593674481414]
そこで我々は,高品質な病理像を生成するためのテキスト条件付き遅延拡散モデルPathLDMを紹介した。
提案手法は画像とテキストデータを融合して生成プロセスを強化する。
我々は,TCGA-BRCAデータセット上でのテキスト・ツー・イメージ生成において,SoTA FIDスコア7.64を達成し,FID30.1と最も近いテキスト・コンディショナブル・コンペティタを著しく上回った。
論文 参考訳(メタデータ) (2023-09-01T22:08:32Z) - TSGM: A Flexible Framework for Generative Modeling of Synthetic Time Series [61.436361263605114]
時系列データは、研究者と産業組織間のデータの共有を妨げるため、しばしば不足または非常に敏感である。
本稿では,合成時系列の生成モデリングのためのオープンソースフレームワークである時系列生成モデリング(TSGM)を紹介する。
論文 参考訳(メタデータ) (2023-05-19T10:11:21Z) - TTS-CGAN: A Transformer Time-Series Conditional GAN for Biosignal Data
Augmentation [5.607676459156789]
我々は,既存のマルチクラスデータセットに基づいて学習し,クラス固有の合成時系列列を生成する条件付きGANモデルであるTS-CGANを提案する。
我々のモデルによって生成された合成シーケンスは、実データとは区別できないため、同じタイプの実信号の補完や置換に使うことができる。
論文 参考訳(メタデータ) (2022-06-28T01:01:34Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Differentially Private Synthetic Medical Data Generation using
Convolutional GANs [7.2372051099165065]
R'enyiの差分プライバシーを用いた合成データ生成のための差分プライベートフレームワークを開発する。
提案手法は, 畳み込み自己エンコーダと畳み込み生成対向ネットワークを利用して, 生成した合成データの重要な特性をある程度保存する。
私たちのモデルは、同じプライバシー予算の下で既存の最新モデルを上回ることを実証します。
論文 参考訳(メタデータ) (2020-12-22T01:03:49Z) - STAN: Synthetic Network Traffic Generation with Generative Neural Models [10.54843182184416]
本稿では,現実的な合成ネットワークトラフィックデータセットを生成するためのSTAN(Synthetic Network Traffic Generation with Autoregressive Neural Model)を提案する。
私たちの新しいニューラルアーキテクチャは、常に属性間の時間的依存関係と依存の両方をキャプチャします。
我々は、シミュレーションデータセットと実ネットワークトラフィックデータセットの両方で、STANの性能を、データの品質の観点から評価する。
論文 参考訳(メタデータ) (2020-09-27T04:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。