論文の概要: TextCrafter: Optimization-Calibrated Noise for Defending Against Text Embedding Inversion
- arxiv url: http://arxiv.org/abs/2509.17302v4
- Date: Sat, 01 Nov 2025 02:21:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 18:19:02.788277
- Title: TextCrafter: Optimization-Calibrated Noise for Defending Against Text Embedding Inversion
- Title(参考訳): TextCrafter: テキスト埋め込みインバージョンに対する防御のための最適化校正ノイズ
- Authors: Duoxun Tang, Xinhang Jiang, Jiajun Niu,
- Abstract要約: テキスト埋め込みインバージョン攻撃は、潜在表現から原文を再構築し、協調推論とエッジコンピューティングにおいて深刻なプライバシー上の脅威を生じさせる。
本研究では, RL学習, 幾何を考慮したノイズ注入, クラスタ先行によるユーザ埋め込み, PII信号誘導を併用して, 作業性を維持しながらインバージョンを抑える, 最適化に基づく逆摂動機構であるTextCrafterを提案する。
- 参考スコア(独自算出の注目度): 0.13764085113103217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text embedding inversion attacks reconstruct original sentences from latent representations, posing severe privacy threats in collaborative inference and edge computing. We propose TextCrafter, an optimization-based adversarial perturbation mechanism that combines RL learned, geometry aware noise injection orthogonal to user embeddings with cluster priors and PII signal guidance to suppress inversion while preserving task utility. Unlike prior defenses either non learnable or agnostic to perturbation direction, TextCrafter provides a directional protective policy that balances privacy and utility. Under strong privacy setting, TextCrafter maintains 70 percentage classification accuracy on four datasets and consistently outperforms Gaussian/LDP baselines across lower privacy budgets, demonstrating a superior privacy utility trade off.
- Abstract(参考訳): テキスト埋め込みインバージョン攻撃は、潜在表現から原文を再構築し、協調推論とエッジコンピューティングにおいて深刻なプライバシー上の脅威を生じさせる。
本研究では, RL学習, 幾何を考慮したノイズ注入を, ユーザの埋め込みに直交し, クラスタプリエントとPII信号誘導を併用して, タスクユーティリティを保ちながらインバージョンを抑える, 最適化に基づく逆摂動機構であるTextCrafterを提案する。
学習不能または摂動方向に非依存な以前の防御とは異なり、TextCrafterはプライバシーとユーティリティのバランスをとる指向的な保護ポリシーを提供する。
強力なプライバシ設定の下では、TextCrafterは4つのデータセットの70パーセントの分類精度を維持し、より低いプライバシ予算でGaussian/LDPベースラインを一貫して上回り、優れたプライバシユーティリティのトレードオフを示す。
関連論文リスト
- Stop Tracking Me! Proactive Defense Against Attribute Inference Attack in LLMs [61.15237978606501]
大規模言語モデルは、ユーザ生成テキストからプライベートなユーザー属性を推測することができる。
既存の匿名化ベースの防御は粗く、プライバシーを優先する要素を匿名化する際に単語レベルの精度が欠如している。
細粒度匿名化(TRACE)と推論防止最適化(RPS)を組み合わせた統合防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-12T03:37:50Z) - Concept-Aware Privacy Mechanisms for Defending Embedding Inversion Attacks [7.044221462918645]
既存の差分プライバシー防衛は、埋め込み次元にわたって均一な感度を仮定し、過度なノイズと劣化した実用性をもたらす。
テキスト埋め込みにおける概念固有のプライバシ保護のための,ユーザ中心のフレームワークであるSPARSEを提案する。
論文 参考訳(メタデータ) (2026-02-06T09:28:55Z) - PRISM: Privacy-Aware Routing for Adaptive Cloud-Edge LLM Inference via Semantic Sketch Collaboration [8.776463501718737]
プライバシと推論品質を動的にバランスさせるコンテキスト認識フレームワークを提案する。
PRISMは,(1)エッジデバイスがエンティティレベルの感度をプロファイルし,(2)エッジ上のソフトゲーティングモジュールが実行モード - クラウド,エッジ,あるいはコラボレーションを選択し,(3)協調経路に対して,(3)エッジがエンティティリスクに基づいて適応的な2層局所微分プライバシーを適用し,(4)クラウドLLMが乱れたプロンプトからセマンティックスケッチを生成する。
論文 参考訳(メタデータ) (2025-11-27T22:32:33Z) - Secret-Protected Evolution for Differentially Private Synthetic Text Generation [25.60898496792365]
SecPE(Secret-Protected Evolution)は、シークレット・アウェア・プロテクションによってプライベート・プロテクションを拡張する新しいフレームワークである。
SecPE が$(mathrmp, Mathrmr)$- Secret Protection を満たすことを示す。
その結果、SecPEはより実用的で効果的なプライバシー保護型合成テキスト生成を解放できることがわかった。
論文 参考訳(メタデータ) (2025-10-13T04:05:42Z) - Zero-Shot Privacy-Aware Text Rewriting via Iterative Tree Search [60.197239728279534]
クラウドベースのサービスにおける大規模言語モデル(LLM)は、重大なプライバシー上の懸念を引き起こしている。
既存のテキスト匿名化と、ルールベースのリアクションやスクラブのような非識別技術は、プライバシー保護とテキストの自然性と実用性のバランスをとるのに苦労することが多い。
我々は,一貫性,妥当性,自然性を保ちながら,秘密情報を体系的に難読化・削除するゼロショット木探索型反復文書き換えアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-25T07:23:52Z) - Privacy-Aware In-Context Learning for Large Language Models [12.605629953620495]
大型言語モデル(LLM)は、機密情報の潜在的な暴露によるプライバシー上の懸念を提起する。
プライバシー保証の強い高品質な合成テキストを生成するための,新たなプライベートな予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-17T01:50:32Z) - The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization [53.51921540246166]
我々は,言語大モデル (LLM) がDP対応テキストの文脈的脆弱性を活用可能であることを示す。
LLM再建の二重刃剣効果がプライバシーと実用性に与える影響を実験的に明らかにした。
本稿では,データ再構成を後処理のステップとして使用するための推奨事項を提案する。
論文 参考訳(メタデータ) (2025-08-26T12:22:45Z) - Privacy-Aware Decoding: Mitigating Privacy Leakage of Large Language Models in Retrieval-Augmented Generation [26.573578326262307]
プライバシ・アウェア・デコーディング(英: Privacy-Aware Decoding、PAD)は、ガウス雑音を発生時にトークンロジットに適応的に注入する軽量な推論時防御法である。
PADは信頼性ベースのスクリーニングを統合して、リスクの高いトークンを選択的に保護し、不要なノイズを最小限に抑える効率的な感度推定と、プライバシと生成品質のバランスをとるためのコンテキスト対応ノイズ校正を行う。
我々の研究は、機密ドメインにおける普遍的でスケーラブルなプライバシソリューションを実現するために、デコード戦略を通じて、RAGのプライバシリスクを軽減するための重要な一歩を踏み出しています。
論文 参考訳(メタデータ) (2025-08-05T05:22:13Z) - Enhancing Privacy in Semantic Communication over Wiretap Channels leveraging Differential Privacy [51.028047763426265]
セマンティック通信(SemCom)は,タスク関連情報に着目して伝送効率を向上させる。
セマンティックリッチなデータをセキュアでないチャネルで送信すると、プライバシのリスクが生じる。
本稿では,セマンティックなセマンティックな特徴を保護するために,差分プライバシー機構を統合した新しいSemComフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-23T08:42:44Z) - PersGuard: Preventing Malicious Personalization via Backdoor Attacks on Pre-trained Text-to-Image Diffusion Models [51.458089902581456]
特定の画像の悪質なパーソナライズを防ぐ新しいバックドアベースのアプローチであるPersGuardを紹介する。
我々の手法は既存の技術よりも優れており、プライバシーと著作権保護に対するより堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-22T09:47:55Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [56.46355425175232]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
匿名化に関する以前の研究と比較すると、人間に触発されたアプローチはより自然な書き直しをもたらす。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - ADePT: Auto-encoder based Differentially Private Text Transformation [22.068984615657463]
自動エンコーダを用いたユーティリティ保存型差分プライベートテキスト変換アルゴリズムを提案する。
我々のアルゴリズムはテキストを変換し、攻撃に対して堅牢性を提供し、意味的品質の高い変換を生成する。
その結果,提案手法はMIA攻撃に対して有効であり,基礎となる変換プロセスの有用性は低下しないことがわかった。
論文 参考訳(メタデータ) (2021-01-29T23:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。