論文の概要: Zero2Text: Zero-Training Cross-Domain Inversion Attacks on Textual Embeddings
- arxiv url: http://arxiv.org/abs/2602.01757v2
- Date: Tue, 03 Feb 2026 04:22:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 16:18:58.860581
- Title: Zero2Text: Zero-Training Cross-Domain Inversion Attacks on Textual Embeddings
- Title(参考訳): Zero2Text: テキスト埋め込みにおけるゼロトレーニングクロスドメインインバージョンアタック
- Authors: Doohyun Kim, Donghwa Kang, Kyungjae Lee, Hyeongboo Baek, Brent Byunghoon Kang,
- Abstract要約: オンラインアライメントに基づくトレーニングフリーフレームワークであるZero2Textを紹介した。
我々は、差分プライバシーのような標準的な防御が、この適応的な脅威を効果的に軽減できないことを証明している。
ベースラインよりも1.8倍高いROUGE-Lと6.4倍高いBLEU-2スコアを達成し、単一のリークデータペアなしで未知のドメインから文を復元する。
- 参考スコア(独自算出の注目度): 6.483857896850984
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The proliferation of retrieval-augmented generation (RAG) has established vector databases as critical infrastructure, yet they introduce severe privacy risks via embedding inversion attacks. Existing paradigms face a fundamental trade-off: optimization-based methods require computationally prohibitive queries, while alignment-based approaches hinge on the unrealistic assumption of accessible in-domain training data. These constraints render them ineffective in strict black-box and cross-domain settings. To dismantle these barriers, we introduce Zero2Text, a novel training-free framework based on recursive online alignment. Unlike methods relying on static datasets, Zero2Text synergizes LLM priors with a dynamic ridge regression mechanism to iteratively align generation to the target embedding on-the-fly. We further demonstrate that standard defenses, such as differential privacy, fail to effectively mitigate this adaptive threat. Extensive experiments across diverse benchmarks validate Zero2Text; notably, on MS MARCO against the OpenAI victim model, it achieves 1.8x higher ROUGE-L and 6.4x higher BLEU-2 scores compared to baselines, recovering sentences from unknown domains without a single leaked data pair.
- Abstract(参考訳): 検索強化ジェネレーション(RAG)の普及により、ベクトルデータベースは重要なインフラストラクチャとして確立されたが、インバージョンアタックを埋め込むことによって、深刻なプライバシーリスクがもたらされた。
最適化ベースの手法は計算的に禁止されたクエリを必要とし、アライメントベースのアプローチは、アクセス可能なドメイン内のトレーニングデータの非現実的な仮定に基づいている。
これらの制約は、厳格なブラックボックスとクロスドメイン設定では効果がない。
これらの障壁を解消するために、再帰的なオンラインアライメントに基づく新しいトレーニングフリーフレームワークであるZero2Textを紹介します。
静的データセットに依存するメソッドとは異なり、Zero2TextはLLMプリエントを動的リッジ回帰メカニズムでシナジして、生成をオンザフライでターゲットの埋め込みに反復的にアライメントする。
さらに、差分プライバシーのような標準的な防御が、この適応的な脅威を効果的に軽減できないことを実証する。
Zero2Textを検証するさまざまなベンチマークの広範な実験、特にOpenAIの犠牲者モデルに対するMS MARCOでは、ベースラインよりも1.8倍高いROUGE-Lと6.4倍高いBLEU-2スコアを獲得し、単一のリークデータペアなしで未知のドメインからの文を復元する。
関連論文リスト
- A Vision-Language Pre-training Model-Guided Approach for Mitigating Backdoor Attacks in Federated Learning [43.847168319564844]
視覚言語事前学習モデルのゼロショット学習機能を利用したFLバックドアディフェンスフレームワークCLIP-Fedを提案する。
本計画では, 防衛効果に課される非IIDの限界を克服し, 事前集約・後防衛戦略を統合する。
論文 参考訳(メタデータ) (2025-08-14T03:39:54Z) - No Query, No Access [50.18709429731724]
被害者のテキストのみを使用して動作する textbfVictim Data-based Adrial Attack (VDBA) を導入する。
被害者モデルへのアクセスを防止するため、公開されている事前トレーニングモデルとクラスタリングメソッドを備えたシャドウデータセットを作成します。
EmotionとSST5データセットの実験によると、VDBAは最先端の手法より優れており、ASRの改善は52.08%である。
論文 参考訳(メタデータ) (2025-05-12T06:19:59Z) - ELBA-Bench: An Efficient Learning Backdoor Attacks Benchmark for Large Language Models [55.93380086403591]
生成可能な大規模言語モデルは、バックドアアタックに対して脆弱である。
$textitELBA-Bench$は、パラメータを効率的に微調整することで攻撃者がバックドアを注入できるようにする。
$textitELBA-Bench$は1300以上の実験を提供する。
論文 参考訳(メタデータ) (2025-02-22T12:55:28Z) - ALGEN: Few-shot Inversion Attacks on Textual Embeddings using Alignment and Generation [9.220337458064765]
ALGEN(alignment and generation)を用いたテキスト・エンベディング・インバージョン・アタックを提案する。
ALGEN攻撃はドメインや言語間で効果的に転送でき、重要な情報を明らかにする。
我々は,NLPに埋め込みアライメントを応用した新しいテキスト埋め込みインバージョンパラダイムを構築した。
論文 参考訳(メタデータ) (2025-02-16T23:11:13Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。