論文の概要: Covert Message Passing over Public Internet Platforms Using Model-Based
Format-Transforming Encryption
- arxiv url: http://arxiv.org/abs/2110.07009v1
- Date: Wed, 13 Oct 2021 20:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-16 09:14:06.749605
- Title: Covert Message Passing over Public Internet Platforms Using Model-Based
Format-Transforming Encryption
- Title(参考訳): Model-based Format-Transforming Encryption を用いたパブリックインターネットプラットフォーム上のカバートメッセージパッシング
- Authors: Luke A. Bauer, James K. Howes IV, Sam A. Markelon, Vincent
Bindschaedler, Thomas Shrimpton
- Abstract要約: 我々は、大規模でパブリックなインターネットプラットフォーム上での秘密のメッセージングシステムを構築します。
我々はGPT-2を生成モデルとして用いて,ビットストリングを自然言語のカバーテキストに暗号化的に変換する。
- 参考スコア(独自算出の注目度): 7.965371694487026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new type of format-transforming encryption where the format of
ciphertexts is implicitly encoded within a machine-learned generative model.
Around this primitive, we build a system for covert messaging over large,
public internet platforms (e.g., Twitter). Loosely, our system composes an
authenticated encryption scheme, with a method for encoding random ciphertext
bits into samples from the generative model's family of seed-indexed
token-distributions. By fixing a deployment scenario, we are forced to consider
system-level and algorithmic solutions to real challenges -- such as
receiver-side parsing ambiguities, and the low information-carrying capacity of
actual token-distributions -- that were elided in prior work. We use GPT-2 as
our generative model so that our system cryptographically transforms plaintext
bitstrings into natural-language covertexts suitable for posting to public
platforms. We consider adversaries with full view of the internet platform's
content, whose goal is to surface posts that are using our system for covert
messaging. We carry out a suite of experiments to provide heuristic evidence of
security and to explore tradeoffs between operational efficiency and
detectability.
- Abstract(参考訳): 本稿では,暗号文の形式を機械学習生成モデル内で暗黙的に符号化する新しい形式変換暗号を導入する。
このプリミティブの周りに、大規模なパブリックなインターネットプラットフォーム(例えばTwitter)上での隠蔽メッセージングシステムを構築します。
本システムでは,生成モデルのシードインデックス化トークン分布系から,ランダム暗号ビットをサンプルに符号化する方法を用いて,認証暗号方式を構成する。
デプロイメントのシナリオを修正することで、レシーバ側パーシングの曖昧さや実際のトークン配信能力の低いといった実際の課題に対するシステムレベルとアルゴリズムのソリューションを事前に検討せざるを得なくなりました。
我々はgpt-2を生成モデルとして使用し、暗号的に平文ビット文字列を公開プラットフォームへの投稿に適した自然言語カバーテキストに変換する。
インターネットプラットフォームのコンテンツをフルに見る敵は,当社のシステムを隠蔽メッセージングに使用しているポストを提示することを目的としている。
セキュリティのヒューリスティックな証拠を提供し、運用効率と検出可能性のトレードオフを探るため、一連の実験を行います。
関連論文リスト
- CodeChameleon: Personalized Encryption Framework for Jailbreaking Large
Language Models [49.60006012946767]
パーソナライズされた暗号化手法に基づく新しいジェイルブレイクフレームワークであるCodeChameleonを提案する。
我々は、7つの大規模言語モデルに関する広範な実験を行い、最先端の平均アタック成功率(ASR)を達成する。
GPT-4-1106上で86.6%のASRを実現する。
論文 参考訳(メタデータ) (2024-02-26T16:35:59Z) - JAMDEC: Unsupervised Authorship Obfuscation using Constrained Decoding
over Small Language Models [53.83273575102087]
著者の難読化に対する教師なし推論時間アプローチを提案する。
本稿では,著者難読化のためのユーザ制御推論時間アルゴリズムであるJAMDECを紹介する。
提案手法は,GPT2-XL などの小型言語モデルに基づいて,オリジナルコンテンツをプロプライエタリな LLM の API に公開するのを防ぐ。
論文 参考訳(メタデータ) (2024-02-13T19:54:29Z) - SentinelLMs: Encrypted Input Adaptation and Fine-tuning of Language
Models for Private and Secure Inference [6.0189674528771]
本稿では、ディープラーニングモデルに関連するプライバシとセキュリティの問題に対処する。
ディープニューラルネットワークモデルは、現代のAIベースの様々なアプリケーションにおいて重要なコンポーネントとして機能する。
パスキー暗号化されたユーザ固有テキストに対して,トランスフォーマーに基づく言語モデルを適応し,微調整する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-28T19:55:11Z) - Reverse-Engineering Decoding Strategies Given Blackbox Access to a
Language Generation System [73.52878118434147]
テキスト生成に使用する復号法をリバースエンジニアリングする手法を提案する。
どのようなデコード戦略が使われたかを検出する能力は、生成されたテキストを検出することに影響を及ぼす。
論文 参考訳(メタデータ) (2023-09-09T18:19:47Z) - Verifying the Robustness of Automatic Credibility Assessment [79.08422736721764]
テキスト分類法は信頼性の低い内容を検出する手段として広く研究されている。
入力テキストの無意味な変更は、モデルを誤解させることがある。
偽情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAを紹介する。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Privacy-Preserving Text Classification on BERT Embeddings with
Homomorphic Encryption [23.010346603025255]
準同型暗号に基づく埋め込みの民営化機構を提案する。
本稿では,BERTの埋め込みを暗号化して保護する手法を提案する。
論文 参考訳(メタデータ) (2022-10-05T21:46:02Z) - Device-independent uncloneable encryption [0.0]
我々は、いくつかの復号化鍵が特定の暗号を復号化できる、無作為暗号の変種を導入する。
デバイスに依存しない暗号化が実現可能であることを示す。
本手法の簡単な変更により,単一復号器の暗号方式が得られることを示す。
論文 参考訳(メタデータ) (2022-10-03T16:17:01Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Differential Privacy and Natural Language Processing to Generate
Contextually Similar Decoy Messages in Honey Encryption Scheme [0.0]
Honey Encryptionは、弱いパスワード、OPP、PIN、クレジットカード番号など、低いミニエントロピーキーを使ってメッセージを暗号化するアプローチである。
暗号文は、任意の数の不正なキーで復号されると、"honey message"と呼ばれる可塑性だが粗悪な平文を生成する。
ジブベリでランダムな単語の並べ替えは、攻撃者を騙すには十分ではない。
論文 参考訳(メタデータ) (2020-10-29T23:02:32Z) - Adversarial Watermarking Transformer: Towards Tracing Text Provenance
with Data Hiding [80.3811072650087]
自然言語の透かしを防御として研究し,テキストの出所の発見と追跡に役立てる。
本稿では,適応型透かし変換器(AWT)とエンコーダ・デコーダ・デコーダを併用した対向型透かし変換器(AWT)について述べる。
AWTは、テキストにデータを隠蔽する最初のエンドツーエンドモデルである。
論文 参考訳(メタデータ) (2020-09-07T11:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。