論文の概要: Privacy-Preserving Learning-Augmented Data Structures
- arxiv url: http://arxiv.org/abs/2510.00165v1
- Date: Tue, 30 Sep 2025 18:37:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.203135
- Title: Privacy-Preserving Learning-Augmented Data Structures
- Title(参考訳): プライバシー保護型学習データ構造
- Authors: Prabhav Goyal, Vinesh Sridhar, Wilson Zheng,
- Abstract要約: 学習増強データ構造は、予測周波数推定を使用して、標準データ構造よりも高速に頻繁に発生するデータベース要素を検索する。
最近の研究は、これらの周波数推定を最適に活用し、逆予測誤差に対する堅牢性を維持しながら、データ構造を開発した。
セキュリティ侵害が発生した場合、データ構造は、現在の内容を超えた最小限の情報を明らかにする必要がある。
我々は,歴史に強く依存し,頑健であり,動的更新をサポートする最初の学習強化データ構造を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-augmented data structures use predicted frequency estimates to retrieve frequently occurring database elements faster than standard data structures. Recent work has developed data structures that optimally exploit these frequency estimates while maintaining robustness to adversarial prediction errors. However, the privacy and security implications of this setting remain largely unexplored. In the event of a security breach, data structures should reveal minimal information beyond their current contents. This is even more crucial for learning-augmented data structures, whose layout adapts to the data. A data structure is history independent if its memory representation reveals no information about past operations except what is inferred from its current contents. In this work, we take the first step towards privacy and security guarantees in this setting by proposing the first learning-augmented data structure that is strongly history independent, robust, and supports dynamic updates. To achieve this, we introduce two techniques: thresholding, which automatically makes any learning-augmented data structure robust, and pairing, a simple technique that provides strong history independence in the dynamic setting. Our experimental results demonstrate a tradeoff between security and efficiency but are still competitive with the state of the art.
- Abstract(参考訳): 学習増強データ構造は、予測周波数推定を使用して、標準データ構造よりも高速に頻繁に発生するデータベース要素を検索する。
最近の研究は、これらの周波数推定を最適に活用し、逆予測誤差に対する堅牢性を維持しながら、データ構造を開発した。
しかし、この設定のプライバシーとセキュリティ上の意味はほとんど解明されていない。
セキュリティ侵害が発生した場合、データ構造は、現在の内容を超えた最小限の情報を明らかにする必要がある。
これは、レイアウトがデータに適応する学習強化されたデータ構造にとって、さらに重要なことです。
データ構造が履歴に依存している場合、そのメモリ表現が過去の操作に関する情報を現時点の内容から推測すること以外は明らかにしない。
この作業では、この設定でプライバシとセキュリティを保証するための第一歩として、歴史に強く依存し、堅牢で、動的更新をサポートする、最初の学習強化されたデータ構造を提案する。
これを実現するために、学習強化データ構造を自動的に堅牢化するしきい値設定と、動的環境における強い履歴独立性を提供する単純な手法であるペアリングという2つの手法を導入する。
われわれの実験結果は、セキュリティと効率のトレードオフを示しているが、まだ最先端技術と競合している。
関連論文リスト
- StructSynth: Leveraging LLMs for Structure-Aware Tabular Data Synthesis in Low-Data Regimes [15.476662936746989]
構造化シンス(Struct Synth)は、大規模言語モデルの生成能力と堅牢な構造制御を統合する新しいフレームワークである。
最先端の手法よりもはるかに高い構造整合性と下流の実用性を持つ合成データを生成する。
これは低データのシナリオに挑戦する上で特に有効であることが証明され、プライバシー保護と統計的忠実性の間のトレードオフをナビゲートすることに成功した。
論文 参考訳(メタデータ) (2025-08-04T16:55:02Z) - How Data Inter-connectivity Shapes LLMs Unlearning: A Structural Unlearning Perspective [29.924482732745954]
既存のアプローチでは、忘れられるべきデータポイントは独立であり、接続性を無視していると仮定している。
構造データセットをコンパイルする手法であるPISTOLを提案する。
論文 参考訳(メタデータ) (2024-06-24T17:22:36Z) - Do as I do (Safely): Mitigating Task-Specific Fine-tuning Risks in Large Language Models [93.08860674071636]
悪質なアクターが、ほぼすべてのタスク固有のデータセットの構造を微妙に操作して、危険なモデル行動を促進する方法を示す。
本稿では,タスク形式を模倣した安全データとユーザデータのスタイルを混合した新しい緩和戦略を提案する。
論文 参考訳(メタデータ) (2024-06-12T18:33:11Z) - Everything is Editable: Extend Knowledge Editing to Unstructured Data in Large Language Models [65.10456412127405]
本稿では,非構造化知識編集手法,すなわちUnKEを提案する。
そこで本研究では,非局所ブロック鍵値記憶方式を提案する。
トークンのディメンションでは、コンテキストを保存しながら最後のトークンを直接編集する"期間駆動最適化"を"原因駆動最適化"に置き換えます。
論文 参考訳(メタデータ) (2024-05-24T08:42:40Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - ConStruct-VL: Data-Free Continual Structured VL Concepts Learning [57.86651057895222]
本稿では,Continuous Data-Free Structured VL Concepts Learning (ConStruct-VL)ベンチマークを紹介する。
本稿では,過去のタスクモデルから過去のタスクの逆リマインダーを生成するAdrial Pseudo-Replay (APR) の新たなアプローチによるデータフリー手法を提案する。
このアプローチは、いくつかのレベルのエクスペリエンス再生に適合しながら、すべてのデータフリーメソッドを最大7%上回ります。
論文 参考訳(メタデータ) (2022-11-17T18:57:03Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。