論文の概要: Distributed HDMM: Scalable, Distributed, Accurate, and Differentially Private Query Workloads without a Trusted Curator
- arxiv url: http://arxiv.org/abs/2512.15648v1
- Date: Wed, 17 Dec 2025 17:57:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.089294
- Title: Distributed HDMM: Scalable, Distributed, Accurate, and Differentially Private Query Workloads without a Trusted Curator
- Title(参考訳): 分散HDMM: 信頼できるキュレーターを使わずに、スケーラブルで、分散的で、正確で、異なるプライベートなクエリワークロード
- Authors: Ratang Sedimo, Ivoline C. Ngong, Jami Lashua, Joseph P. Near,
- Abstract要約: 本稿では,分散データ上での線形クエリの処理に応答するプロトコルである分散高次元行列機構(Distributed HDMM)を提案する。
予備的な実証評価では、分散HDMMは1分未満で数千のクライアントで現実的なデータセットやワークロード上で動作可能である。
- 参考スコア(独自算出の注目度): 3.013777283242814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the Distributed High-Dimensional Matrix Mechanism (Distributed HDMM), a protocol for answering workloads of linear queries on distributed data that provides the accuracy of central-model HDMM without a trusted curator. Distributed HDMM leverages a secure aggregation protocol to evaluate HDMM on distributed data, and is secure in the context of a malicious aggregator and malicious clients (assuming an honest majority). Our preliminary empirical evaluation shows that Distributed HDMM can run on realistic datasets and workloads with thousands of clients in less than one minute.
- Abstract(参考訳): 本稿では,分散高次元行列機構(Distributed High-dimensional Matrix Mechanism, 分散HDMM)を提案する。
分散HDMMは、セキュアなアグリゲータプロトコルを利用して、分散データ上でHDMMを評価する。
予備的な実証評価では、分散HDMMは1分以内で数千のクライアントで現実的なデータセットやワークロード上で動作可能である。
関連論文リスト
- Differentially Private Distribution Release of Gaussian Mixture Models via KL-Divergence Minimization [11.3783762550703]
本稿では,GMMパラメータに厳格な乱摂動を付加するDP機構を提案する。
当社のアプローチは、高いユーティリティを維持しながら、強力なプライバシ保証を実現する。
論文 参考訳(メタデータ) (2025-06-04T00:40:24Z) - Benchmarking Multi-modal Semantic Segmentation under Sensor Failures: Missing and Noisy Modality Robustness [61.87055159919641]
マルチモーダルセマンティックセグメンテーション(MMSS)は、モーダル間で補完情報を統合することで、単一モーダルデータの制限に対処する。
顕著な進歩にもかかわらず、マルチモーダルデータ品質の変動と不確実性により、研究と実世界の展開の間に大きなギャップが持続する。
Intire-Missing Modality (EMM)、Random-Missing Modality (RMM)、Noisy Modality (NM)の3つのシナリオでMMSSモデルを評価する頑健性ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-03-24T08:46:52Z) - Ranked from Within: Ranking Large Multimodal Models Without Labels [73.96543593298426]
ソフトマックス分布から導かれる不確実性スコアは,様々なタスクにまたがるランキングモデルに対して,ロバストな基礎となることを示す。
これにより、ラベルのないデータに対するLMMのランク付けが容易になり、手動のアノテーションを必要とせずに、多様なターゲットドメインのモデルを選択するための実践的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-12-09T13:05:43Z) - The Recurrent Sticky Hierarchical Dirichlet Process Hidden Markov Model [0.0]
HDP-HMMは古典的隠れマルコフモデルの非パラメトリック拡張である。
我々は,このモデルにおける効率的な推論のための新しいギブスサンプリング戦略を開発した。
RS-HDP-HMMは、合成データと実データセグメンテーションの両方において、不整合HDP-HMM、粘着HDP-HMM、粘着HDP-HMM、HDP-HMMより優れていることを示す。
論文 参考訳(メタデータ) (2024-11-06T21:49:20Z) - Unsolvable Problem Detection: Robust Understanding Evaluation for Large Multimodal Models [84.78457918843165]
Unsolvable Problem Detection (UPD) は,大規模マルチモーダルモデル(LMM)の頑健な理解能力を評価するための新しいタスクである。
UPDは、多票質問応答の解決不可能な問題に遭遇する際のLMMの回答を抑える能力を評価する。
本稿では,MM-UPD Benchについて紹介する。
論文 参考訳(メタデータ) (2024-03-29T17:59:53Z) - Short-term Load Forecasting with Distributed Long Short-Term Memory [10.99865735713831]
本稿では,コンセンサスアルゴリズムとLong Short-Term Memory(LSTM)に基づく,完全分散短期負荷予測フレームワークを提案する。
具体的には、完全に分散された学習フレームワークを分散トレーニングに利用し、秘密のプライバシを満たすためにコンセンサス技術を適用する。
ケーススタディでは,提案手法は精度に関する集中化手法と同等の性能を示した。
論文 参考訳(メタデータ) (2022-08-01T21:40:16Z) - End-to-End Multi-Object Detection with a Regularized Mixture Model [26.19278003378703]
近年のエンド・ツー・エンド多目的検出器は手作りのプロセスを取り除き、推論パイプラインを単純化している。
本稿では,NLL(負対数類似度)と正規化項(正則化項)の2項のみからなるエンドツーエンドの多対象検出器を訓練するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-18T04:20:23Z) - Disentangled Sticky Hierarchical Dirichlet Process Hidden Markov Model [11.327093154048637]
HDP-HMMの頑健な拡張は、HDP-HMMの自己パーシステンス確率を高めるために提案されている。
本稿では、より一般的なモデルとして、不整合なHDP-HMMを提案する。
その結果,HDP-HMMとHDP-HMMは,合成データと実データの両方で優れていた。
論文 参考訳(メタデータ) (2020-04-06T22:10:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。