論文の概要: Invertible Tabular GANs: Killing Two Birds with OneStone for Tabular
Data Synthesis
- arxiv url: http://arxiv.org/abs/2202.03636v1
- Date: Tue, 8 Feb 2022 04:09:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 13:43:38.801836
- Title: Invertible Tabular GANs: Killing Two Birds with OneStone for Tabular
Data Synthesis
- Title(参考訳): invertible tabular gans: 表データ合成のためのonestoneで2羽の鳥を殺す
- Authors: Jaehoon Lee, Jihyeon Hyeong, Jinsung Jeon, Noseong Park, Jihoon Cho
- Abstract要約: 提案するフレームワークは,GANの対角トレーニングと,非可逆ニューラルネットワークの負対数密度正規化を組み合わせたものである。
我々は、分類、回帰、プライバシ攻撃のための実世界のデータセットを用いて実験を行う。
- 参考スコア(独自算出の注目度): 19.858794004557456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tabular data synthesis has received wide attention in the literature. This is
because available data is often limited, incomplete, or cannot be obtained
easily, and data privacy is becoming increasingly important. In this work, we
present a generalized GAN framework for tabular synthesis, which combines the
adversarial training of GANs and the negative log-density regularization of
invertible neural networks. The proposed framework can be used for two
distinctive objectives. First, we can further improve the synthesis quality, by
decreasing the negative log-density of real records in the process of
adversarial training. On the other hand, by increasing the negative log-density
of real records, realistic fake records can be synthesized in a way that they
are not too much close to real records and reduce the chance of potential
information leakage. We conduct experiments with real-world datasets for
classification, regression, and privacy attacks. In general, the proposed
method demonstrates the best synthesis quality (in terms of task-oriented
evaluation metrics, e.g., F1) when decreasing the negative log-density during
the adversarial training. If increasing the negative log-density, our
experimental results show that the distance between real and fake records
increases, enhancing robustness against privacy attacks.
- Abstract(参考訳): タブラルデータ合成は、文献で広く注目を集めている。
これは、利用可能なデータは、しばしば制限され、不完全であり、簡単に取得できないため、データのプライバシがますます重要になっているためである。
本稿では,ganの逆訓練と可逆ニューラルネットワークの負対数密度正規化を組み合わせた表合成のための一般化ganフレームワークを提案する。
提案フレームワークは2つの異なる目的に利用できる。
まず,実記録の負の対数密度を減少させることにより,合成品質をさらに向上させることができる。
一方、実記録の負のログ密度を増加させることで、実記録とあまり親しくなく、潜在的な情報漏洩の可能性を低下させる方法で実記録を合成することができる。
我々は、分類、回帰、およびプライバシ攻撃のための実世界のデータセットで実験を行う。
提案手法は, 対向訓練において負の対数密度を減少させる際の最適合成品質(タスク指向評価指標, 例えばF1)を示す。
負のログ密度を増大させると、実記録と偽記録との距離が増加し、プライバシー攻撃に対する堅牢性が向上することを示す実験結果が得られた。
関連論文リスト
- Reliability in Semantic Segmentation: Can We Use Synthetic Data? [52.5766244206855]
本稿では,セマンティックセグメンテーションにおける信頼性を評価するために,データの自動合成を行う最先端生成モデルに挑戦する。
安定拡散を微調整することにより、OODドメインやOODオブジェクトに塗布された合成データのゼロショット生成を行う。
我々は,合成データの性能と実OODデータの性能との間に高い相関関係を示し,妥当性を示す。
論文 参考訳(メタデータ) (2023-12-14T18:56:07Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Synthetic data, real errors: how (not) to publish and use synthetic data [86.65594304109567]
生成過程が下流MLタスクにどのように影響するかを示す。
本稿では、生成プロセスモデルパラメータの後方分布を近似するために、Deep Generative Ensemble (DGE)を導入する。
論文 参考訳(メタデータ) (2023-05-16T07:30:29Z) - Non-Parametric Outlier Synthesis [35.20765580915213]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習モデルを野生に安全にデプロイするのに不可欠である。
我々は,OOD学習データを生成する新しいフレームワークであるNon-Parametric Outlier Synthesis (NPOS)を提案する。
提案手法は, 数学的にリジェクションサンプリングフレームワークとして解釈できることを示す。
論文 参考訳(メタデータ) (2023-03-06T08:51:00Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - A Linear Reconstruction Approach for Attribute Inference Attacks against
Synthetic Data [0.9023847175654603]
合成データに対する新しい属性推論攻撃を導入する。
攻撃は任意の記録でも極めて正確であることを示す。
次に、プライバシー保護と統計ユーティリティ保護のトレードオフを評価する。
論文 参考訳(メタデータ) (2023-01-24T14:56:36Z) - An Empirical Study on the Membership Inference Attack against Tabular
Data Synthesis Models [12.878704876264317]
タブラルデータ合成モデルは、データユーティリティとプライバシのトレードオフが可能なため、人気がある。
近年の研究では、画像データの生成モデルは、メンバーシップ推論攻撃の影響を受けやすいことが示されている。
DP-SGD と DP-GAN の2つの偏微分プライベートなディープラーニング学習アルゴリズムが,攻撃からモデルを守ることができるかを評価する実験を行った。
論文 参考訳(メタデータ) (2022-08-17T07:09:08Z) - Few-Shot Class-Incremental Learning via Entropy-Regularized Data-Free
Replay [52.251188477192336]
FSCIL (Few-shot class-incremental Learning) は,データ制限のあるクラスを段階的に学習する深層学習システムを実現するために提案されている。
データリプレイの採用は驚くほど好都合である,という実証的な結果を通じて示します。
本研究では,実データにアクセスすることなく,ジェネレータによるデータ合成が可能なデータフリーリプレイを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:30:51Z) - Noise-Aware Statistical Inference with Differentially Private Synthetic
Data [0.0]
DP合成データをまるで本物であるかのように単純に分析することは、人口レベルの推定に有効でないことを示す。
本稿では,多重計算分野の合成データ解析技術と合成データ生成技術を組み合わせることで,この問題に対処する。
我々は,最大エントロピーの原理を用いたノイズ対応合成データ生成アルゴリズム NAPSU-MQ を開発した。
論文 参考訳(メタデータ) (2022-05-28T16:59:46Z) - Contrastive Fine-tuning Improves Robustness for Neural Rankers [1.3868793694964396]
本稿では、ドメイン外データやクエリの摂動に対するロバスト性を大幅に向上させることができる、微調整型ニューラルローダの新しい手法を提案する。
関連ラベルを用いて類似/異種ペアを表現し、異なるクエリとドキュメントのペア間で、モデルが基礎となるマッチングセマンティクスを学習できるようにする。
提案手法は, BERT と BART をベースとしたロータの問合せ, ノイズ摂動, ゼロショット転送に対するロバスト性の向上を実現する。
論文 参考訳(メタデータ) (2021-05-27T04:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。