論文の概要: A Privacy Model for Classical & Learned Bloom Filters
- arxiv url: http://arxiv.org/abs/2501.15751v1
- Date: Mon, 27 Jan 2025 03:35:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:32.087563
- Title: A Privacy Model for Classical & Learned Bloom Filters
- Title(参考訳): 古典的・学習的ブルームフィルタのプライバシーモデル
- Authors: Hayder Tirmazi,
- Abstract要約: 古典ブルームフィルタ (CBF) は確率データ構造 (PDS) のクラスである。
Learned Bloom Filter (LBF) は古典的ブルームフィルタと学習モデルを組み合わせた PDS のクラスである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The Classical Bloom Filter (CBF) is a class of Probabilistic Data Structures (PDS) for handling Approximate Query Membership (AMQ). The Learned Bloom Filter (LBF) is a recently proposed class of PDS that combines the Classical Bloom Filter with a Learning Model while preserving the Bloom Filter's one-sided error guarantees. Bloom Filters have been used in settings where inputs are sensitive and need to be private in the presence of an adversary with access to the Bloom Filter through an API or in the presence of an adversary who has access to the internal state of the Bloom Filter. Prior work has investigated the privacy of the Classical Bloom Filter providing attacks and defenses under various privacy definitions. In this work, we formulate a stronger differential privacy-based model for the Bloom Filter. We propose constructions of the Classical and Learned Bloom Filter that satisfy $(\epsilon, 0)$-differential privacy. This is also the first work that analyses and addresses the privacy of the Learned Bloom Filter under any rigorous model, which is an open problem.
- Abstract(参考訳): 古典ブルームフィルタ (CBF) は、近似クエリーメンバーシップ (AMQ) を扱うための確率データ構造 (PDS) のクラスである。
Learned Bloom Filter (LBF) は、古典的ブルームフィルタと学習モデルを組み合わせた PDS のクラスであり、ブルームフィルタの一方的なエラー保証を保っている。
ブルームフィルタは、入力が敏感で、APIを介してブルームフィルタにアクセスする敵の存在や、ブルームフィルタの内部状態にアクセスする敵の存在下で、プライベートでなければならない設定で使われてきた。
これまでの研究は、さまざまなプライバシー定義の下で攻撃と防御を提供する古典的ブルームフィルタのプライバシーを調査してきた。
本研究では,Bloomフィルタのより強力な差分プライバシーベースモデルを定式化する。
本稿では,$(\epsilon, 0)$-differential privacyを満たす古典的および学習的ブルームフィルタの構成を提案する。
これは、Learnered Bloom Filterのプライバシーを厳格なモデルで分析し、対処する最初の仕事であり、これはオープンな問題である。
関連論文リスト
- Cascaded Learned Bloom Filter for Optimal Model-Filter Size Balance and Fast Rejection [12.555117983678624]
これらの問題に対処するために,カスケード学習ブルームフィルタ (CLBF) を提案する。
動的プログラミングに基づく最適化は、モデルとフィルタサイズの間の最適なバランスを実現する構成を自動的に選択する。
実世界のデータセットでの実験では、CLBFは最先端のBloomフィルタと比較してメモリ使用量を最大24%削減し、リジェクション時間を最大14倍削減している。
論文 参考訳(メタデータ) (2025-02-06T01:05:41Z) - DPBloomfilter: Securing Bloom Filters with Differential Privacy [17.002793355495136]
DPBloomfilterは、古典的な微分プライバシーメカニズム、特にランダム応答技術をブルームフィルタに統合する。
標準のBloomフィルタと同じ複雑な動作で、堅牢なプライバシー保証を提供する。
これは、メンバーシップクエリ問題に対するBloomフィルタに対して、差分プライバシー保証を提供する最初の作業である。
論文 参考訳(メタデータ) (2025-02-02T06:47:50Z) - Adversary Resilient Learned Bloom Filters [0.4910937238451484]
本研究では,学習ブルームフィルタの強敵対モデルを定義する。
本稿では,本モデルを用いて,ボデガ中心街フィルタと呼ばれる学習ブルームフィルタの逆レジリエントな変種を構築した。
論文 参考訳(メタデータ) (2024-09-10T14:37:43Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Compressing (Multidimensional) Learned Bloom Filters [7.6058140480517356]
Bloomフィルタは、要素が基礎となる集合に含まれていないか、あるいは特定のエラー率に含まれていないかを明らかにする。
ディープラーニングモデルは、このメンバシップテストの問題を解決するために使用される。
学習したブルームフィルタの利点は、膨大なデータを考慮する場合にのみ明らかである。
論文 参考訳(メタデータ) (2022-08-05T07:54:48Z) - Fully Adaptive Composition in Differential Privacy [53.01656650117495]
よく知られた高度な合成定理は、基本的なプライバシー構成が許すよりも、プライベートデータベースを2倍にクエリすることができる。
アルゴリズムとプライバシパラメータの両方を適応的に選択できる完全適応型合成を導入する。
適応的に選択されたプライバシパラメータが許されているにもかかわらず、定数を含む高度なコンポジションのレートに適合するフィルタを構築します。
論文 参考訳(メタデータ) (2022-03-10T17:03:12Z) - On the Choice of General Purpose Classifiers in Learned Bloom Filters:
An Initial Analysis Within Basic Filters [0.41998444721319217]
ブルームフィルタのいくつかのバージョンが検討されており、古典的なフィルタよりも有利である。
それぞれが、データ構造の学習された部分である分類器を使用する。
特定の分類器がどの状況で利用できるかについての体系的な研究は行われていない。
論文 参考訳(メタデータ) (2021-12-13T11:15:41Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Unsharp Mask Guided Filtering [53.14430987860308]
本論文の目的は,フィルタ中の構造伝達の重要性を強調した画像フィルタリングである。
アンシャープマスキングにインスパイアされたガイドフィルタの新しい簡易な定式化を提案する。
我々の定式化は低域フィルタに先立ってフィルタを楽しみ、単一の係数を推定することで明示的な構造伝達を可能にする。
論文 参考訳(メタデータ) (2021-06-02T19:15:34Z) - Data Agnostic Filter Gating for Efficient Deep Networks [72.4615632234314]
現在のフィルタプルーニング法は主に特徴写像を利用してフィルタの重要なスコアを生成し、より小さなスコアのプルーンを生成する。
本稿では,Daggerモジュールと呼ばれる補助的ネットワークを用いてプルーニングを誘導するデータフィルタプルーニング手法を提案する。
さらに,特定のFLOP制約でプルーネフィルタを支援するために,明示的なFLOPを意識した正規化を活用して,プルーニングフィルタを直接対象のFLOPに向けて推進する。
論文 参考訳(メタデータ) (2020-10-28T15:26:40Z) - Training Interpretable Convolutional Neural Networks by Differentiating
Class-specific Filters [64.46270549587004]
畳み込みニューラルネットワーク(CNN)は、様々なタスクでうまく使われている。
CNNは、しばしば「ブラックボックス」と解釈可能性の欠如とみなされる。
本稿では,クラス固有のフィルタを奨励することで,解釈可能なCNNを訓練する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T09:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。