論文の概要: Reflex: Faster Secure Collaborative Analytics via Controlled Intermediate Result Size Disclosure
- arxiv url: http://arxiv.org/abs/2503.20932v2
- Date: Thu, 23 Oct 2025 12:56:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:04.832
- Title: Reflex: Faster Secure Collaborative Analytics via Controlled Intermediate Result Size Disclosure
- Title(参考訳): リフレクション: 制御された中間結果の開示による安全なコラボレーション分析の高速化
- Authors: Long Gu, Shaza Zeitouni, Carsten Binnig, Zsolt István,
- Abstract要約: Multi-Party Computation (MPC)は、プライベートデータを公開せずに協調分析を可能にする。
MPCクエリは、不愉快な実行と中間結果をフィラーでパディングするため、違法に遅いままである。
本稿では,クエリ演算子間で中間結果のトリミングを可能にする最初のフレームワークであるReflexを紹介する。
- 参考スコア(独自算出の注目度): 12.70544732637916
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Secure Multi-Party Computation (MPC) enables collaborative analytics without exposing private data. However, OLAP queries under MPC remain prohibitively slow due to oblivious execution and padding of intermediate results with filler tuples. We present Reflex, the first framework that enables configurable trimming of intermediate results across different query operators -- joins, selections, and aggregations -- within full query plans. At its core is the Resizer operator, which can be inserted between any oblivious operators to selectively remove filler tuples under MPC using user-defined probabilistic strategies. To make privacy trade-offs interpretable, we introduce a new metric that quantifies the number of observations an attacker would need to infer the true intermediate result sizes. Reflex thus makes the performance-privacy space of secure analytics navigable, allowing users to balance efficiency and protection. Experiments show substantial runtime reductions while maintaining quantifiable privacy guarantees.
- Abstract(参考訳): Secure Multi-Party Computation (MPC)は、プライベートデータを公開せずに協調分析を可能にする。
しかし,MPC における OLAP クエリは,未処理の実行や中間結果のパディングがフィラータプルで行われているため,明らかに遅いままである。
Reflexは、さまざまなクエリ演算子(ジョイン、セレクション、アグリゲーション)間で、完全なクエリ計画内で中間結果の設定可能なトリミングを可能にする最初のフレームワークです。
コアとなるResizer演算子は、ユーザ定義の確率的戦略を使用して、任意の不愉快な演算子の間に挿入して、MPCの下でフィラータプルを選択的に除去することができる。
プライバシトレードオフを解釈可能にするために,攻撃者が真の中間結果サイズを推測するために必要な観測回数を定量化する新しい指標を導入する。
これにより、セキュアな分析のためのパフォーマンスプライバシスペースがナビゲート可能になり、ユーザは効率と保護のバランスを取ることができる。
実験では、定量的なプライバシー保証を維持しながら、実行時の大幅な削減が示されている。
関連論文リスト
- Visual Document Understanding and Question Answering: A Multi-Agent Collaboration Framework with Test-Time Scaling [83.78874399606379]
テスト時間スケーリングを備えたマルチエージェント協調フレームワークであるMACTを提案する。
4つの異なる小規模エージェントから構成され、明確に定義された役割と効果的なコラボレーションがある。
一般および数学的タスクの能力を犠牲にすることなく、より小さなパラメータスケールで優れた性能を示す。
論文 参考訳(メタデータ) (2025-08-05T12:52:09Z) - ReflecSched: Solving Dynamic Flexible Job-Shop Scheduling via LLM-Powered Hierarchical Reflection [4.101501114944147]
ReflecSchedは、直接スケジューラ以上の LLM を強化するフレームワークである。
複数の計画地平線にまたがるシミュレーションを、簡潔で自然言語の要約に蒸留する。
この要約は、最終的な意思決定モジュールのプロンプトに統合され、非ミオピックアクションを生成するためのガイドとなる。
論文 参考訳(メタデータ) (2025-08-03T11:26:35Z) - Evaluating the Efficacy of LLM-Based Reasoning for Multiobjective HPC Job Scheduling [6.623504719591386]
大規模言語モデル(LLM)ベースのスケジューラはReActスタイルのフレームワークを使用する(Reason + Act)
Systemはスクラッチパッドメモリを内蔵し、スケジューリング履歴を追跡し、自然言語のフィードバックを通じて決定を洗練する。
我々は,OpenAI の O4-Mini と Anthropic の Claude 3.7 を用いて,実世界の7つの HPC ワークロードシナリオに対してアプローチを評価した。
論文 参考訳(メタデータ) (2025-05-29T14:25:29Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - How Robust Are Router-LLMs? Analysis of the Fragility of LLM Routing Capabilities [62.474732677086855]
大規模言語モデル(LLM)ルーティングは,計算コストと性能のバランスをとる上で重要な戦略である。
DSCベンチマークを提案する: Diverse, Simple, and Categorizedは、幅広いクエリタイプでルータのパフォーマンスを分類する評価フレームワークである。
論文 参考訳(メタデータ) (2025-03-20T19:52:30Z) - Leveraging Approximate Caching for Faster Retrieval-Augmented Generation [1.3450852784287828]
Retrieval-augmented Generation (RAG)は、外部知識を統合することにより、大規模言語モデル(LLM)回答の信頼性を高める。
RAGは、大規模なベクトルデータベースから関連ドキュメントを探すのに計算コストがかかるため、エンドツーエンドの推論時間を増加させる。
本稿では,ユーザクエリの類似性を活用してRAGワークフローを最適化する,近似キー値キャッシュであるProximityを紹介する。
論文 参考訳(メタデータ) (2025-03-07T15:54:04Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers [58.5711048151424]
SPARSEK Attention(SPARSEK Attention)は、計算およびメモリ障害を克服するために設計された、新しいスパースアテンション機構である。
提案手法では,各クエリに対して一定数のKVペアを選択するために,スコアリングネットワークと差別化可能なトップkマスク演算子であるSPARSEKを統合する。
実験結果から,SPARSEK注意は従来のスパースアテンション法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-24T15:55:59Z) - Flexible Job Shop Scheduling via Dual Attention Network Based
Reinforcement Learning [73.19312285906891]
フレキシブルなジョブショップスケジューリング問題(FJSP)では、複数のマシンで操作を処理でき、操作とマシンの間の複雑な関係が生じる。
近年, 深層強化学習(DRL)を用いて, FJSP解決のための優先派遣規則(PDR)を学習している。
本稿では,Deep機能抽出のための自己注意モデルと,スケーラブルな意思決定のためのDRLの利点を生かした,エンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T01:35:48Z) - No DBA? No regret! Multi-armed bandits for index tuning of analytical
and HTAP workloads with provable guarantees [9.965853054511163]
本稿では,DBAとクエリオプティマイザを併用したオンラインインデックス選択に対する自律的アプローチを提案する。
我々はその問題を不確実性の下でのシーケンシャルな意思決定の1つと見なしている。
当社のソリューションでは、シフトのスピードアップを最大59%、静的ワークロードのスピードアップを最大51%提供しています。
論文 参考訳(メタデータ) (2021-08-23T12:54:48Z) - DBA bandits: Self-driving index tuning under ad-hoc, analytical
workloads with safety guarantees [14.913550078203448]
物理データベースの設計は、データベース研究に長く関心を寄せてきた。
クエリストアのような最近の進歩は、動的環境に対する限られたサポートしか提供しない。
本稿では,DBAとクエリオプティマイザを併用したオンラインインデックス選択に対する自律的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-19T04:24:10Z) - Dynamic Multi-Robot Task Allocation under Uncertainty and Temporal
Constraints [52.58352707495122]
本稿では,不確実性およびマルチエージェント協調の下での逐次意思決定における重要な計算課題を分離するマルチロボット割当アルゴリズムを提案する。
都市におけるマルチアームコンベヤベルトピック・アンド・プレイスとマルチドローン配送ディスパッチの2つの異なる領域における広範囲なシミュレーション結果について検証を行った。
論文 参考訳(メタデータ) (2020-05-27T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。