論文の概要: Adversary Resilient Learned Bloom Filters
- arxiv url: http://arxiv.org/abs/2409.06556v5
- Date: Fri, 16 May 2025 14:35:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:11.177141
- Title: Adversary Resilient Learned Bloom Filters
- Title(参考訳): 逆レジリエント学習ブルームフィルタ
- Authors: Ghada Almashaqbeh, Allison Bishop, Hayder Tirmazi,
- Abstract要約: 学習ブルームフィルタ(LBF)は、古典的ブルームフィルタ(CBF)と学習モデルを組み合わせて、与えられた集合を表現するために必要なメモリ量を削減する。
FPRを増大させようとする適応的敵に対する潜在的なセキュリティはCBFに対して研究されている。
本稿では,LBFの適応セキュリティを実現する方法について述べる。
- 参考スコア(独自算出の注目度): 1.0753191494611891
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A learned Bloom filter (LBF) combines a classical Bloom filter (CBF) with a learning model to reduce the amount of memory needed to represent a given set while achieving a target false positive rate (FPR). Provable security against adaptive adversaries that advertently attempt to increase FPR has been studied for CBFs. However, achieving adaptive security for LBFs is an open problem. In this paper, we close this gap and show how to achieve adaptive security for LBFs. In particular, we define several adaptive security notions capturing varying degrees of adversarial control, including full and partial adaptivity, in addition to LBF extensions of existing adversarial models for CBFs, including the Always-Bet and Bet-or-Pass notions. We propose two secure LBF constructions, PRP-LBF and Cuckoo-LBF, and formally prove their security under these models, assuming the existence of one-way functions. Based on our analysis and use case evaluations, our constructions achieve strong security guarantees while maintaining competitive FPR and memory overhead.
- Abstract(参考訳): 学習ブルームフィルタ(LBF)は、古典的ブルームフィルタ(CBF)と学習モデルを組み合わせて、対象の偽陽性率(FPR)を達成しつつ、与えられた集合を表現するために必要なメモリ量を削減する。
FPRを増大させようとする適応的敵に対する潜在的なセキュリティはCBFに対して研究されている。
しかし、LBFの適応セキュリティを実現することは、オープンな問題である。
本稿では,このギャップを埋め,LBFの適応的セキュリティを実現する方法を示す。
特に,既存のCBFに対するLBF拡張に加えて,完全適応性や部分適応性を含む,様々な対向制御の度合いを捉える適応型セキュリティ概念を定義した。
我々はPRP-LBFとCuckoo-LBFという2つのセキュアなLBF構造を提案し、一方通行関数の存在を前提として、これらのモデルの下でそれらの安全性を正式に証明する。
分析とユースケース評価に基づいて,FPRとメモリオーバーヘッドの競争力を維持しつつ,強力なセキュリティ保証を実現する。
関連論文リスト
- Cascaded Learned Bloom Filter for Optimal Model-Filter Size Balance and Fast Rejection [12.555117983678624]
これらの問題に対処するために,カスケード学習ブルームフィルタ (CLBF) を提案する。
動的プログラミングに基づく最適化は、モデルとフィルタサイズの間の最適なバランスを実現する構成を自動的に選択する。
実世界のデータセットでの実験では、CLBFは最先端のBloomフィルタと比較してメモリ使用量を最大24%削減し、リジェクション時間を最大14倍削減している。
論文 参考訳(メタデータ) (2025-02-06T01:05:41Z) - DPBloomfilter: Securing Bloom Filters with Differential Privacy [17.002793355495136]
DPBloomfilterは、古典的な微分プライバシーメカニズム、特にランダム応答技術をブルームフィルタに統合する。
標準のBloomフィルタと同じ複雑な動作で、堅牢なプライバシー保証を提供する。
これは、メンバーシップクエリ問題に対するBloomフィルタに対して、差分プライバシー保証を提供する最初の作業である。
論文 参考訳(メタデータ) (2025-02-02T06:47:50Z) - A Privacy Model for Classical & Learned Bloom Filters [0.0]
古典ブルームフィルタ (CBF) は確率データ構造 (PDS) のクラスである。
Learned Bloom Filter (LBF) は古典的ブルームフィルタと学習モデルを組み合わせた PDS のクラスである。
本稿では,ブルームフィルタの厳密な差分プライバシーに基づく分析を行う。
論文 参考訳(メタデータ) (2025-01-27T03:35:25Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - Filter Pruning for Efficient CNNs via Knowledge-driven Differential
Filter Sampler [103.97487121678276]
フィルタプルーニングは同時に計算を加速し、CNNのメモリオーバーヘッドを低減する。
本稿では,MFM(Masked Filter Modeling)フレームワークを用いた知識駆動型微分フィルタサンプリング(KDFS)を提案する。
論文 参考訳(メタデータ) (2023-07-01T02:28:41Z) - Generative Slate Recommendation with Reinforcement Learning [49.75985313698214]
強化学習アルゴリズムは、レコメンデータシステムのユーザエンゲージメントを最適化するために使用することができる。
しかし、RLアプローチはスレートレコメンデーションシナリオでは難解である。
この設定では、アクションはアイテムの組み合わせを含むことができるスレートに対応する。
本研究では,変分オートエンコーダによって学習された連続低次元ラテント空間におけるスレートの符号化を提案する。
我々は、(i)以前の作業で要求される仮定を緩和し、(ii)完全なスレートをモデル化することで、アクション選択の品質を向上させることができる。
論文 参考訳(メタデータ) (2023-01-20T15:28:09Z) - A Critical Analysis of Classifier Selection in Learned Bloom Filters [0.3359875577705538]
フィルタ構築に使用されるデータの"複雑さ"は、そのパフォーマンスに大きく影響する可能性がある。
本稿では,学習ブルームフィルタの設計,解析,実装のための新しい手法を提案する。
提案手法とサポートソフトウェアは有効かつ有用であることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2022-11-28T17:17:18Z) - Compressing (Multidimensional) Learned Bloom Filters [7.6058140480517356]
Bloomフィルタは、要素が基礎となる集合に含まれていないか、あるいは特定のエラー率に含まれていないかを明らかにする。
ディープラーニングモデルは、このメンバシップテストの問題を解決するために使用される。
学習したブルームフィルタの利点は、膨大なデータを考慮する場合にのみ明らかである。
論文 参考訳(メタデータ) (2022-08-05T07:54:48Z) - Proteus: A Self-Designing Range Filter [29.998915706012642]
Proteusは、新しい自己設計近似レンジフィルタである。
最先端レンジフィルタの確率的および決定論的設計空間を統一する。
Proteusは、より脆い最先端の手法よりも最大5.3倍の性能向上を実現している。
論文 参考訳(メタデータ) (2022-06-30T22:43:34Z) - Adversarial Robustness through the Lens of Convolutional Filters [2.0305676256390934]
逆学習モデルで形成される3x3畳み込みフィルタについて検討する。
フィルタは、linf-RobustBench CIFAR-10/100とImageNet1kのリーダーボードの71のパブリックモデルから抽出される。
論文 参考訳(メタデータ) (2022-04-05T20:29:16Z) - Learning Versatile Convolution Filters for Efficient Visual Recognition [125.34595948003745]
本稿では,効率的な畳み込みニューラルネットワーク構築のための多目的フィルタを提案する。
本稿では,ネットワークの複雑性に関する理論的解析を行い,効率的な畳み込み手法を提案する。
ベンチマークデータセットとニューラルネットワークの実験結果は、我々の汎用フィルタが元のフィルタと同等の精度を達成できることを実証している。
論文 参考訳(メタデータ) (2021-09-20T06:07:14Z) - Unsharp Mask Guided Filtering [53.14430987860308]
本論文の目的は,フィルタ中の構造伝達の重要性を強調した画像フィルタリングである。
アンシャープマスキングにインスパイアされたガイドフィルタの新しい簡易な定式化を提案する。
我々の定式化は低域フィルタに先立ってフィルタを楽しみ、単一の係数を推定することで明示的な構造伝達を可能にする。
論文 参考訳(メタデータ) (2021-06-02T19:15:34Z) - Adversarial Robustness by Design through Analog Computing and Synthetic
Gradients [80.60080084042666]
光コプロセッサにインスパイアされた敵攻撃に対する新しい防御機構を提案する。
ホワイトボックス設定では、我々の防御はランダム投影のパラメータを難読化することで機能する。
光学系におけるランダムプロジェクションとバイナライゼーションの組み合わせにより、様々な種類のブラックボックス攻撃に対するロバスト性も向上する。
論文 参考訳(メタデータ) (2021-01-06T16:15:29Z) - Training Interpretable Convolutional Neural Networks by Differentiating
Class-specific Filters [64.46270549587004]
畳み込みニューラルネットワーク(CNN)は、様々なタスクでうまく使われている。
CNNは、しばしば「ブラックボックス」と解釈可能性の欠如とみなされる。
本稿では,クラス固有のフィルタを奨励することで,解釈可能なCNNを訓練する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T09:12:26Z) - Partitioned Learned Bloom Filter [31.748077944821315]
最適化問題として最適モデル利用の問題の枠組みを示す。
多くの場合、ほぼ最適性能を達成できるアルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-06-05T00:05:32Z) - Selective Inference for Latent Block Models [50.83356836818667]
本研究では,潜在ブロックモデルに対する選択的推論法を提案する。
我々は,潜在ブロックモデルの行と列クラスタのメンバシップの集合に対する統計的テストを構築した。
提案された正確で近似されたテストは、選択バイアスを考慮していない単純なテストと比較して効果的に機能する。
論文 参考訳(メタデータ) (2020-05-27T10:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。