論文の概要: Beyond One-Size-Fits-All: Neural Networks for Differentially Private Tabular Data Synthesis
- arxiv url: http://arxiv.org/abs/2511.13893v1
- Date: Mon, 17 Nov 2025 20:33:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.78831
- Title: Beyond One-Size-Fits-All: Neural Networks for Differentially Private Tabular Data Synthesis
- Title(参考訳): 1サイズ以上:差分プライベートなタブラルデータ合成のためのニューラルネットワーク
- Authors: Kai Chen, Chen Gong, Tianhao Wang,
- Abstract要約: 本稿では,統計モデルのアルゴリズム設計をニューラルネットワークに組み込んだMargNetを提案する。
MargNetは適応的な辺縁選択戦略を適用し、ニューラルネットワークをトレーニングして、選択した辺縁に適合するデータを生成する。
さらに重要なのは、密集した相関データセットに基づいて、MargNetは新たな最先端技術を確立し、前回の最高値と比較してフィリティエラーを最大26%削減する。
- 参考スコア(独自算出の注目度): 21.22625929242754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In differentially private (DP) tabular data synthesis, the consensus is that statistical models are better than neural network (NN)-based methods. However, we argue that this conclusion is incomplete and overlooks the challenge of densely correlated datasets, where intricate dependencies can overwhelm statistical models. In such complex scenarios, neural networks are more suitable due to their capacity to fit complex distributions by learning directly from samples. Despite this potential, existing NN-based algorithms still suffer from significant limitations. We therefore propose MargNet, incorporating successful algorithmic designs of statistical models into neural networks. MargNet applies an adaptive marginal selection strategy and trains the neural networks to generate data that conforms to the selected marginals. On sparsely correlated datasets, our approach achieves utility close to the best statistical method while offering an average 7$\times$ speedup over it. More importantly, on densely correlated datasets, MargNet establishes a new state-of-the-art, reducing fidelity error by up to 26\% compared to the previous best. We release our code on GitHub.\footnote{https://github.com/KaiChen9909/margnet}
- Abstract(参考訳): 微分プライベート(DP)グラフデータ合成では、統計モデルはニューラルネットワーク(NN)ベースの手法よりも優れているという意見が一致している。
しかし、この結論は不完全であり、複雑な依存関係が統計モデルに圧倒されるような高密度な相関データセットの課題を見落としていると論じる。
このような複雑なシナリオでは、ニューラルネットワークはサンプルから直接学習することで複雑な分布に適合する能力のため、より適している。
この可能性にもかかわらず、既存のNNベースのアルゴリズムは依然として重大な制限に悩まされている。
そこで我々は,統計モデルのアルゴリズム設計をニューラルネットワークに組み込んだMargNetを提案する。
MargNetは適応的な辺縁選択戦略を適用し、ニューラルネットワークをトレーニングして、選択した辺縁に適合するデータを生成する。
疎相関データセットについて,本手法は,平均7$\times$スピードアップを提供しながら,最良統計手法に近い実用性を実現する。
さらに重要なのは、密集した相関データセットに基づいて、MargNetは新たな最先端技術を確立し、前回の最高値と比較してフィリティエラーを最大26倍まで削減する。
コードをGitHubでリリースしています。
\footnote{https://github.com/KaiChen9909/margnet}
関連論文リスト
- Neural Parameter Estimation with Incomplete Data [0.0]
さまざまな理由で不完全なデータを持つニューラルネットワークを使用するのは簡単ではない。
この問題を解決するために最近提案されたアプローチでは、適切なパッド付きデータベクトルと、欠損パターンを符号化したベクトルをニューラルネットワークに入力する。
本稿ではモンテカルロ予想最大化(EM)アルゴリズムに基づく代替手法を提案する。
論文 参考訳(メタデータ) (2025-01-08T08:05:17Z) - LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - GCondNet: A Novel Method for Improving Neural Networks on Small High-Dimensional Tabular Data [14.124731264553889]
我々はGCondNetを提案し、データに存在する暗黙構造を活用してニューラルネットワークを強化する。
GCondNetはデータの高次元性を利用して、基礎となる予測ネットワークの性能を向上させる。
GCondNetが実世界の12のデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-11-11T16:13:34Z) - Data Subsampling for Bayesian Neural Networks [0.0]
Penalty Bayesian Neural Networks - PBNNは,サブサンプルバッチデータによる可能性の評価を可能にする,新たなアルゴリズムである。
PBNNは,データサイズが小さい場合でも,予測性能が良好であることを示す。
論文 参考訳(メタデータ) (2022-10-17T14:43:35Z) - Integrating Random Effects in Deep Neural Networks [4.860671253873579]
深層ニューラルネットワークにおける相関データを扱うために混合モデルフレームワークを提案する。
相関構造に基づく効果をランダムな効果として扱うことにより、混合モデルは過度に適合したパラメータ推定を避けることができる。
LMMNNと呼ばれる我々のアプローチは、様々な相関シナリオにおいて、自然競合よりも性能を向上させることが実証されている。
論文 参考訳(メタデータ) (2022-06-07T14:02:24Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。