論文の概要: Differentially Private In-Context Learning with Nearest Neighbor Search
- arxiv url: http://arxiv.org/abs/2511.04332v1
- Date: Thu, 06 Nov 2025 13:06:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.422991
- Title: Differentially Private In-Context Learning with Nearest Neighbor Search
- Title(参考訳): 最近近傍探索を用いた差分プライベート・インテクスト学習
- Authors: Antti Koskela, Tejas Kulkarni, Laith Zumot,
- Abstract要約: 本稿では,プライバシーに配慮した手法で,近接する関連事例の検索を統合する,文脈内学習のためのDPフレームワークを提案する。
提案手法は,評価されたすべてのベンチマークにおいて,既存のベースラインよりもかなりのマージンで性能を向上する。
- 参考スコア(独自算出の注目度): 5.932575574212546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially private in-context learning (DP-ICL) has recently become an active research topic due to the inherent privacy risks of in-context learning. However, existing approaches overlook a critical component of modern large language model (LLM) pipelines: the similarity search used to retrieve relevant context data. In this work, we introduce a DP framework for in-context learning that integrates nearest neighbor search of relevant examples in a privacy-aware manner. Our method outperforms existing baselines by a substantial margin across all evaluated benchmarks, achieving more favorable privacy-utility trade-offs. To achieve this, we employ nearest neighbor retrieval from a database of context data, combined with a privacy filter that tracks the cumulative privacy cost of selected samples to ensure adherence to a central differential privacy budget. Experimental results on text classification and document question answering show a clear advantage of the proposed method over existing baselines.
- Abstract(参考訳): 近年,DP-ICL (differially private in-context learning) が注目されている。
しかし、既存のアプローチは、関連するコンテキストデータを取得するために使用される類似性探索という、現代の大規模言語モデル(LLM)パイプラインの重要なコンポーネントを見落としている。
そこで本研究では,プライバシーに配慮した手法で,近接する関連事例の検索を組み込んだ,文脈内学習のためのDPフレームワークを提案する。
提案手法は,評価されたすべてのベンチマークにおいて,既存のベースラインをかなり上回り,より良好なプライバシ・ユーティリティのトレードオフを実現している。
これを実現するために、我々は、コンテキストデータのデータベースから最も近い近傍検索と、選択したサンプルの累積プライバシーコストを追跡するプライバシーフィルタを組み合わせて、中央の差分プライバシー予算の遵守を保証する。
テキスト分類と文書質問応答の実験結果から,提案手法が既存のベースラインに対して明らかな優位性を示した。
関連論文リスト
- Towards Context-aware Reasoning-enhanced Generative Searching in E-commerce [61.03081096959132]
そこで本稿では,複雑な状況下でのテキストバウンダリングを改善するための,文脈対応推論強化型生成検索フレームワークを提案する。
提案手法は,強力なベースラインに比べて優れた性能を示し,検索に基づく推薦の有効性を検証した。
論文 参考訳(メタデータ) (2025-10-19T16:46:11Z) - Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - From Contextual Data to Newsvendor Decisions: On the Actual Performance of Data-Driven Algorithms [8.89658755359509]
本研究では,過去データの価値・品質・量が,文脈的ニューズベンダーの問題を分析することによって,パフォーマンスに与える影響について検討する。
データ駆動型アルゴリズムの性能は、文脈に依存した最悪の最悪の後悔という概念を用いて分析する。
論文 参考訳(メタデータ) (2023-02-16T17:03:39Z) - Retrieval Enhanced Data Augmentation for Question Answering on Privacy
Policies [74.01792675564218]
本研究では,ラベルのないポリシー文書から関連するテキストセグメントを抽出する検索モデルに基づくデータ拡張フレームワークを開発する。
拡張データの多様性と品質を改善するために,複数の事前学習言語モデル(LM)を活用し,ノイズ低減フィルタモデルでそれらをカスケードする。
PrivacyQAベンチマークの強化データを使用して、既存のベースラインを大きなマージン(10% F1)に高め、新しい最先端のF1スコアを50%達成します。
論文 参考訳(メタデータ) (2022-04-19T15:45:23Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。