論文の概要: A Privacy Model for Classical & Learned Bloom Filters
- arxiv url: http://arxiv.org/abs/2501.15751v1
- Date: Mon, 27 Jan 2025 03:35:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:32.087563
- Title: A Privacy Model for Classical & Learned Bloom Filters
- Title(参考訳): 古典的・学習的ブルームフィルタのプライバシーモデル
- Authors: Hayder Tirmazi,
- Abstract要約: 古典ブルームフィルタ (CBF) は確率データ構造 (PDS) のクラスである。
Learned Bloom Filter (LBF) は古典的ブルームフィルタと学習モデルを組み合わせた PDS のクラスである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The Classical Bloom Filter (CBF) is a class of Probabilistic Data Structures (PDS) for handling Approximate Query Membership (AMQ). The Learned Bloom Filter (LBF) is a recently proposed class of PDS that combines the Classical Bloom Filter with a Learning Model while preserving the Bloom Filter's one-sided error guarantees. Bloom Filters have been used in settings where inputs are sensitive and need to be private in the presence of an adversary with access to the Bloom Filter through an API or in the presence of an adversary who has access to the internal state of the Bloom Filter. Prior work has investigated the privacy of the Classical Bloom Filter providing attacks and defenses under various privacy definitions. In this work, we formulate a stronger differential privacy-based model for the Bloom Filter. We propose constructions of the Classical and Learned Bloom Filter that satisfy $(\epsilon, 0)$-differential privacy. This is also the first work that analyses and addresses the privacy of the Learned Bloom Filter under any rigorous model, which is an open problem.
- Abstract(参考訳): 古典ブルームフィルタ (CBF) は、近似クエリーメンバーシップ (AMQ) を扱うための確率データ構造 (PDS) のクラスである。
Learned Bloom Filter (LBF) は、古典的ブルームフィルタと学習モデルを組み合わせた PDS のクラスであり、ブルームフィルタの一方的なエラー保証を保っている。
ブルームフィルタは、入力が敏感で、APIを介してブルームフィルタにアクセスする敵の存在や、ブルームフィルタの内部状態にアクセスする敵の存在下で、プライベートでなければならない設定で使われてきた。
これまでの研究は、さまざまなプライバシー定義の下で攻撃と防御を提供する古典的ブルームフィルタのプライバシーを調査してきた。
本研究では,Bloomフィルタのより強力な差分プライバシーベースモデルを定式化する。
本稿では,$(\epsilon, 0)$-differential privacyを満たす古典的および学習的ブルームフィルタの構成を提案する。
これは、Learnered Bloom Filterのプライバシーを厳格なモデルで分析し、対処する最初の仕事であり、これはオープンな問題である。
関連論文リスト
- Adversary Resilient Learned Bloom Filters [0.4910937238451484]
本研究では,学習ブルームフィルタの強敵対モデルを定義する。
本稿では,本モデルを用いて,ボデガ中心街フィルタと呼ばれる学習ブルームフィルタの逆レジリエントな変種を構築した。
論文 参考訳(メタデータ) (2024-09-10T14:37:43Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - A Critical Analysis of Classifier Selection in Learned Bloom Filters [0.3359875577705538]
フィルタ構築に使用されるデータの"複雑さ"は、そのパフォーマンスに大きく影響する可能性がある。
本稿では,学習ブルームフィルタの設計,解析,実装のための新しい手法を提案する。
提案手法とサポートソフトウェアは有効かつ有用であることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2022-11-28T17:17:18Z) - Compressing (Multidimensional) Learned Bloom Filters [7.6058140480517356]
Bloomフィルタは、要素が基礎となる集合に含まれていないか、あるいは特定のエラー率に含まれていないかを明らかにする。
ディープラーニングモデルは、このメンバシップテストの問題を解決するために使用される。
学習したブルームフィルタの利点は、膨大なデータを考慮する場合にのみ明らかである。
論文 参考訳(メタデータ) (2022-08-05T07:54:48Z) - Daisy Bloom Filters [10.428888893980739]
フィルター(英: filter)とは、ある宇宙から与えられた要素のセット$S$(可算集合)の近似を保存するために広く用いられるデータ構造である。
ブルームフィルタを使用する利点は、いくつかの偽陽性が許容されるとき、空間使用量が$S$を正確に保存するために必要なものよりも小さくなることである。
Bloom filter は $textitDaisy Bloom filter$ と呼ばれ、操作を高速に実行し、標準の Bloom filter よりもはるかに少ないスペースを使用する。
論文 参考訳(メタデータ) (2022-05-30T07:22:24Z) - Fully Adaptive Composition in Differential Privacy [53.01656650117495]
よく知られた高度な合成定理は、基本的なプライバシー構成が許すよりも、プライベートデータベースを2倍にクエリすることができる。
アルゴリズムとプライバシパラメータの両方を適応的に選択できる完全適応型合成を導入する。
適応的に選択されたプライバシパラメータが許されているにもかかわらず、定数を含む高度なコンポジションのレートに適合するフィルタを構築します。
論文 参考訳(メタデータ) (2022-03-10T17:03:12Z) - On the Choice of General Purpose Classifiers in Learned Bloom Filters:
An Initial Analysis Within Basic Filters [0.41998444721319217]
ブルームフィルタのいくつかのバージョンが検討されており、古典的なフィルタよりも有利である。
それぞれが、データ構造の学習された部分である分類器を使用する。
特定の分類器がどの状況で利用できるかについての体系的な研究は行われていない。
論文 参考訳(メタデータ) (2021-12-13T11:15:41Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Unsharp Mask Guided Filtering [53.14430987860308]
本論文の目的は,フィルタ中の構造伝達の重要性を強調した画像フィルタリングである。
アンシャープマスキングにインスパイアされたガイドフィルタの新しい簡易な定式化を提案する。
我々の定式化は低域フィルタに先立ってフィルタを楽しみ、単一の係数を推定することで明示的な構造伝達を可能にする。
論文 参考訳(メタデータ) (2021-06-02T19:15:34Z) - Data Agnostic Filter Gating for Efficient Deep Networks [72.4615632234314]
現在のフィルタプルーニング法は主に特徴写像を利用してフィルタの重要なスコアを生成し、より小さなスコアのプルーンを生成する。
本稿では,Daggerモジュールと呼ばれる補助的ネットワークを用いてプルーニングを誘導するデータフィルタプルーニング手法を提案する。
さらに,特定のFLOP制約でプルーネフィルタを支援するために,明示的なFLOPを意識した正規化を活用して,プルーニングフィルタを直接対象のFLOPに向けて推進する。
論文 参考訳(メタデータ) (2020-10-28T15:26:40Z) - Training Interpretable Convolutional Neural Networks by Differentiating
Class-specific Filters [64.46270549587004]
畳み込みニューラルネットワーク(CNN)は、様々なタスクでうまく使われている。
CNNは、しばしば「ブラックボックス」と解釈可能性の欠如とみなされる。
本稿では,クラス固有のフィルタを奨励することで,解釈可能なCNNを訓練する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T09:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。