論文の概要: Fast Private Adaptive Query Answering for Large Data Domains
- arxiv url: http://arxiv.org/abs/2602.05674v1
- Date: Thu, 05 Feb 2026 13:57:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.960878
- Title: Fast Private Adaptive Query Answering for Large Data Domains
- Title(参考訳): 大規模データドメインに対する高速なプライベート適応型クエリ解法
- Authors: Miguel Fuentes, Brett Mullins, Yingtai Xiao, Daniel Kifer, Cameron Musco, Daniel Sheldon,
- Abstract要約: 本稿では,AIMなどの最先端適応機構に残差クエリを統合する新しい手法を提案する。
これらのコントリビューションは、エラーを減らし、スピードを改善し、クエリ操作を単純化する。
我々はこれらのイノベーションを新しいメカニズム(AIM+GReM)に統合し、グラフィカルモデルアプローチの代わりに高速な残差ベース再構成を用いてAIMを改善する。
- 参考スコア(独自算出の注目度): 24.608957804631462
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Privately releasing marginals of a tabular dataset is a foundational problem in differential privacy. However, state-of-the-art mechanisms suffer from a computational bottleneck when marginal estimates are reconstructed from noisy measurements. Recently, residual queries were introduced and shown to lead to highly efficient reconstruction in the batch query answering setting. We introduce new techniques to integrate residual queries into state-of-the-art adaptive mechanisms such as AIM. Our contributions include a novel conceptual framework for residual queries using multi-dimensional arrays, lazy updating strategies, and adaptive optimization of the per-round privacy budget allocation. Together these contributions reduce error, improve speed, and simplify residual query operations. We integrate these innovations into a new mechanism (AIM+GReM), which improves AIM by using fast residual-based reconstruction instead of a graphical model approach. Our mechanism is orders of magnitude faster than the original framework and demonstrates competitive error and greatly improved scalability.
- Abstract(参考訳): グラフデータセットの限界をプライベートにリリースすることは、差分プライバシーの基本的な問題である。
しかし、現状のメカニズムは、ノイズ測定から限界推定が再構成されるとき、計算ボトルネックに悩まされる。
近年、残余クエリを導入し、バッチクエリ応答設定の高度に効率的な再構築を実現することが示されている。
本稿では,AIMなどの最先端適応機構に残差クエリを統合する新しい手法を提案する。
提案するコントリビューションには,多次元配列を用いた残余クエリのための新しい概念フレームワーク,遅延更新戦略,および各ラウンドのプライバシ予算割り当ての適応最適化が含まれている。
これらのコントリビューションは、エラーを減らし、スピードを改善し、クエリ操作を単純化する。
我々はこれらのイノベーションを新しいメカニズム(AIM+GReM)に統合し、グラフィカルモデルアプローチの代わりに高速な残差ベース再構成を用いてAIMを改善する。
私たちのメカニズムは、オリジナルのフレームワークよりも桁違いに高速で、競合するエラーを示し、スケーラビリティを大幅に改善しています。
関連論文リスト
- Revisiting the Privacy Risks of Split Inference: A GAN-Based Data Reconstruction Attack via Progressive Feature Optimization [49.32786615205064]
Split Inference (SI)は、エッジデバイスとクラウドの間の計算を分割することで、レイテンシを低減し、ユーザのプライバシを保護する。
データ再構成攻撃(DRA)の最近の進歩は、SIで交換された中間的特徴を利用して機密入力データを復元できることを明らかにしている。
既存のDRAは一般的に浅いモデルにのみ有効であり、セマンティックな事前を十分に活用できない。
本稿では,プログレッシブ・フィーチャー・オプティマイゼーション(PFO)を用いた新しいGANベースのDRAフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-28T10:00:39Z) - RMoA: Optimizing Mixture-of-Agents through Diversity Maximization and Residual Compensation [6.364685086217188]
本稿では,Residual Mixture-of-Agents(RMoA)を提案する。
RMoAは、アライメント、数学的推論、コード生成、マルチタスク理解のベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-30T10:23:11Z) - Towards Generalizable Trajectory Prediction Using Dual-Level Representation Learning And Adaptive Prompting [107.4034346788744]
既存の車両軌道予測モデルは、一般化可能性、予測の不確実性、複雑な相互作用を扱う。
本研究では,(1)自己拡張(SD)とマスドレコンストラクション(MR)による二重レベル表現学習,グローバルコンテキストと細部の詳細の収集,(2)レジスタベースのクエリと事前学習の強化,クラスタリングと抑圧の必要性の排除,(3)微調整中の適応型プロンプトチューニング,メインアーキテクチャの凍結,および少数のプロンプトの最適化といった,新たなトラジェクタ予測フレームワークであるPerceiverを提案する。
論文 参考訳(メタデータ) (2025-01-08T20:11:09Z) - The Efficiency vs. Accuracy Trade-off: Optimizing RAG-Enhanced LLM Recommender Systems Using Multi-Head Early Exit [46.37267466656765]
本稿では,Retrieval-Augmented Generation(RAG)と革新的なマルチヘッドアーリーエグジットアーキテクチャを組み合わせた最適化フレームワークを提案する。
我々の実験は、信頼性の高いレコメンデーション配信に必要な精度を犠牲にすることなく、このアーキテクチャがいかに効果的に時間を削減するかを実証している。
論文 参考訳(メタデータ) (2025-01-04T03:26:46Z) - Efficient and Private Marginal Reconstruction with Local Non-Negativity [28.968601257521644]
本稿では,限界クエリに対する応答を再構成するための基本的かつ効率的なポストプロセッシング手法ReMを提案する。
拡張GReM-LNNは、一貫性と非負性を満たすガウス雑音の下で境界を再構成する。
既存のプライベートクエリ応答機構を改善するためにReMとGReM-LNNを適用することで、ReMとGReM-LNNの有用性を実証する。
論文 参考訳(メタデータ) (2024-10-01T21:39:28Z) - Temporal Feature Matters: A Framework for Diffusion Model Quantization [105.3033493564844]
拡散モデルはマルチラウンド・デノナイジングの時間ステップに依存している。
3つの戦略を含む新しい量子化フレームワークを導入する。
このフレームワークは時間情報のほとんどを保存し、高品質なエンドツーエンド生成を保証する。
論文 参考訳(メタデータ) (2024-07-28T17:46:15Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。