論文の概要: LatticeGen: A Cooperative Framework which Hides Generated Text in a
Lattice for Privacy-Aware Generation on Cloud
- arxiv url: http://arxiv.org/abs/2309.17157v2
- Date: Mon, 2 Oct 2023 05:44:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 10:47:50.676025
- Title: LatticeGen: A Cooperative Framework which Hides Generated Text in a
Lattice for Privacy-Aware Generation on Cloud
- Title(参考訳): latticegen: クラウド上のプライバシアウェア生成のための格子に生成されたテキストを隠す協調フレームワーク
- Authors: Mengke Zhang, Tianxing He, Tianle Wang, Lu Mi, Fatemehsadat
Mireshghallah, Binyi Chen, Hao Wang, Yulia Tsvetkov
- Abstract要約: 本稿では,ユーザがサンプリング操作を制御している間にサーバが計算の大部分を処理できる協調的なフレームワークを提案する。
鍵となる考え方は、真の生成シーケンスがユーザによるノイズトークンと混在し、ノイズ格子に隠されていることである。
ノイズ格子は生成品質を劣化させるが、LatticeGenは強力な攻撃下で真の世代を顕著に保護する。
- 参考スコア(独自算出の注目度): 38.56364390008391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the current user-server interaction paradigm of prompted generation with
large language models (LLM) on cloud, the server fully controls the generation
process, which leaves zero options for users who want to keep the generated
text to themselves. We propose LatticeGen, a cooperative framework in which the
server still handles most of the computation while the user controls the
sampling operation. The key idea is that the true generated sequence is mixed
with noise tokens by the user and hidden in a noised lattice. Considering
potential attacks from a hypothetically malicious server and how the user can
defend against it, we propose the repeated beam-search attack and the mixing
noise scheme. In our experiments we apply LatticeGen to protect both prompt and
generation. It is shown that while the noised lattice degrades generation
quality, LatticeGen successfully protects the true generation to a remarkable
degree under strong attacks (more than 50% of the semantic remains hidden as
measured by BERTScore).
- Abstract(参考訳): クラウド上の大規模言語モデル(LLM)で生成を誘導する現在のユーザサーバインタラクションパラダイムでは、サーバが生成プロセスを完全に制御し、生成したテキストを自分自身に保持したいユーザのための選択肢がゼロになる。
我々は,ユーザがサンプリング操作を制御する間,サーバが依然としてほとんどの計算処理を行う協調的なフレームワークであるLatticeGenを提案する。
鍵となる考え方は、真の生成シーケンスがユーザによるノイズトークンと混在し、ノイズ格子に隠されていることである。
疑似悪意のあるサーバからの攻撃の可能性と、ユーザがそれに対して防御できる方法を考慮し、繰り返しビーム探索攻撃と混合ノイズスキームを提案する。
実験では、LatticeGenを使ってプロンプトとジェネレーションの両方を保護します。
ノイズ格子は生成品質を劣化させるが、LatticeGenは強力な攻撃の下で真の世代を顕著に保護する(BERTScoreが測定したようにセマンティックの50%以上が隠されている)。
関連論文リスト
- BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Improving ChatGPT Prompt for Code Generation [13.303599826870705]
OpenAIの言語モデルChatGPTは、幅広いテキスト入力に対するヒューマンライクな応答を生成する強力なツールとして登場した。
テキスト・ツー・コード生成とコード・ツー・コード生成を含む2つのコード生成タスクにおけるChatGPTの機能を評価する。
その結果,ChatGPTをガイドするプロンプトを慎重に設計することで,生成性能を大幅に向上できることがわかった。
論文 参考訳(メタデータ) (2023-05-15T05:37:33Z) - ReCode: Robustness Evaluation of Code Generation Models [90.10436771217243]
コード生成モデルのための総合的ロバストネス評価ベンチマークであるReCodeを提案する。
ドクストリング、関数と変数名、コード構文、コードフォーマットのコードに特化して、30以上の変換をカスタマイズします。
ヒトのアノテータでは、摂動プロンプトの90%以上が本来のプロンプトの意味を変えていないことが確認された。
論文 参考訳(メタデータ) (2022-12-20T14:11:31Z) - Generative Poisoning Using Random Discriminators [4.313716802238207]
ShortcutGenは、ジェネレータを学習することで、サンプル依存のエラー最小化摂動を生成する新しいデータ中毒攻撃である。
ShortcutGenは、ラベルのない方法で1つのフォワードパスで摂動を生成することができます。
論文 参考訳(メタデータ) (2022-11-02T12:54:27Z) - Joint Generator-Ranker Learning for Natural Language Generation [99.16268050116717]
JGRは、ジェネレータとローダを単一のフレームワークに統合する、新しいジョイントトレーニングアルゴリズムである。
ジェネレータとランク装置を反復的に更新することにより、JGRは学習を効果的に調和させ、共同で品質を高めることができる。
論文 参考訳(メタデータ) (2022-06-28T12:58:30Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - Plug-and-Blend: A Framework for Controllable Story Generation with
Blended Control Codes [11.053902512072813]
制御可能な言語生成フレームワークPlug-and-Blendについて述べる。
自動ストーリ生成のコンテキストでは、人間のユーザがトピックやそれらの間の遷移をきめ細やかに制御することができる。
人間の参加者による評価は、生成されたストーリーが2つのトピックの間で観測可能に遷移していることを示している。
論文 参考訳(メタデータ) (2021-03-23T03:15:14Z) - Meta-CoTGAN: A Meta Cooperative Training Paradigm for Improving
Adversarial Text Generation [24.46198850268219]
生成的敵モデルがテキスト生成タスクに広く適用されている。
対向発電機は、従来の最大可能性アプローチによって経験される露光バイアスを軽減する。
本稿では,効率よくモード崩壊を加速させることにより,対向テキスト生成の性能向上を目的とした新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T04:47:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。