論文の概要: Differential Privacy and Natural Language Processing to Generate
Contextually Similar Decoy Messages in Honey Encryption Scheme
- arxiv url: http://arxiv.org/abs/2010.15985v1
- Date: Thu, 29 Oct 2020 23:02:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 23:56:39.993526
- Title: Differential Privacy and Natural Language Processing to Generate
Contextually Similar Decoy Messages in Honey Encryption Scheme
- Title(参考訳): ハニー暗号化方式における文脈的に類似したデコイメッセージを生成するための差分プライバシーと自然言語処理
- Authors: Kunjal Panchal
- Abstract要約: Honey Encryptionは、弱いパスワード、OPP、PIN、クレジットカード番号など、低いミニエントロピーキーを使ってメッセージを暗号化するアプローチである。
暗号文は、任意の数の不正なキーで復号されると、"honey message"と呼ばれる可塑性だが粗悪な平文を生成する。
ジブベリでランダムな単語の並べ替えは、攻撃者を騙すには十分ではない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Honey Encryption is an approach to encrypt the messages using low min-entropy
keys, such as weak passwords, OTPs, PINs, credit card numbers. The ciphertext
is produces, when decrypted with any number of incorrect keys, produces
plausible-looking but bogus plaintext called "honey messages". But the current
techniques used in producing the decoy plaintexts do not model human language
entirely. A gibberish, random assortment of words is not enough to fool an
attacker; that will not be acceptable and convincing, whether or not the
attacker knows some information of the genuine source.
In this paper, I focus on the plaintexts which are some non-numeric
informative messages. In order to fool the attacker into believing that the
decoy message can actually be from a certain source, we need to capture the
empirical and contextual properties of the language. That is, there should be
no linguistic difference between real and fake message, without revealing the
structure of the real message. I employ natural language processing and
generalized differential privacy to solve this problem. Mainly I focus on
machine learning methods like keyword extraction, context classification,
bags-of-words, word embeddings, transformers for text processing to model
privacy for text documents. Then I prove the security of this approach with
e-differential privacy.
- Abstract(参考訳): Honey Encryptionは、弱いパスワード、OPP、PIN、クレジットカード番号など、低いミニエントロピーキーを使ってメッセージを暗号化するアプローチである。
暗号文は、不正なキー数で復号されると「Honey message」と呼ばれる可塑性だが粗悪な平文を生成する。
しかし、デコイ平文の生成に使われている現在の技術は、人間の言語を完全にモデル化するものではない。
言葉のぎこちないランダムな並べ替えは、攻撃者を騙すには不十分である。それは、攻撃者が本物の情報源の何らかの情報を知っているかどうかに関わらず、受け入れられて納得できない。
本稿では,非数値的な情報的メッセージである平文に焦点をあてる。
攻撃者を騙して、デコイメッセージが実際に特定のソースからのものであると信じるためには、言語の経験的および文脈的特性をキャプチャする必要があります。
つまり、実際のメッセージの構造を明らかにすることなく、実メッセージと偽メッセージの間に言語的な違いはない。
私はこの問題を解決するために自然言語処理と一般化された微分プライバシーを使用します。
主に、キーワード抽出、文脈分類、単語のバッグ、単語埋め込み、テキスト処理のための変換器、テキスト文書のプライバシーをモデル化する機械学習手法に注目します。
そして、このアプローチのセキュリティをe-differential privacyで証明します。
関連論文リスト
- Silent Guardian: Protecting Text from Malicious Exploitation by Large Language Models [63.91178922306669]
大規模言語モデル(LLM)に対するテキスト保護機構であるSilent Guardianを紹介する。
保護されるテキストを慎重に修正することで、TPEはLDMを誘導して最初にエンドトークンをサンプリングし、直接相互作用を終了させることができる。
本研究では,SGがターゲットテキストを種々の構成で効果的に保護し,保護成功率の約100%を達成できることを示す。
論文 参考訳(メタデータ) (2023-12-15T10:30:36Z) - Reverse-Engineering Decoding Strategies Given Blackbox Access to a
Language Generation System [73.52878118434147]
テキスト生成に使用する復号法をリバースエンジニアリングする手法を提案する。
どのようなデコード戦略が使われたかを検出する能力は、生成されたテキストを検出することに影響を及ぼす。
論文 参考訳(メタデータ) (2023-09-09T18:19:47Z) - GPT-4 Is Too Smart To Be Safe: Stealthy Chat with LLMs via Cipher [85.18213923151717]
実験により、いくつかの安全領域において、GPT-4の安全性アライメントをバイパスするために、ある暗号がほぼ100%の時間で成功することが示された。
本稿では,ロールプレイのみを使用し,自然言語によるいくつかの実演を行い,これを誘発する新しいSelfCipherを提案する。
論文 参考訳(メタデータ) (2023-08-12T04:05:57Z) - CipherSniffer: Classifying Cipher Types [0.0]
我々は復号化タスクを分類問題とする。
まず、転置、置換、テキストの反転、単語の反転、文のシフト、暗号化されていないテキストのデータセットを作成します。
論文 参考訳(メタデータ) (2023-06-13T20:18:24Z) - General Framework for Reversible Data Hiding in Texts Based on Masked
Language Modeling [15.136429369639686]
本稿では,秘密情報を所定のカバーテキストに埋め込むための一般的なフレームワークを提案する。
マーキングされたテキストから埋め込み情報及び元のカバーテキストを完全検索することができる。
この結果から,原文のカバーテキストと秘密情報の埋め込みと抽出に成功できることが示唆された。
論文 参考訳(メタデータ) (2022-06-21T05:02:49Z) - Can Sequence-to-Sequence Models Crack Substitution Ciphers? [15.898270650875158]
最先端の解読法は、ビームサーチとニューラルネットワークモデルを用いて、与えられた暗号に対する候補仮説を評価する。
提案手法は明示的な言語識別を伴わずにテキストを解読でき,雑音に対して頑健であることを示す。
論文 参考訳(メタデータ) (2020-12-30T17:16:33Z) - TextHide: Tackling Data Privacy in Language Understanding Tasks [54.11691303032022]
TextHideは、トレーニングを遅くしたり、精度を下げることなく、プライバシー上のリスクを軽減する。
すべての参加者は、盗聴攻撃者がプライベートテキストデータを復元するのを防ぐために、簡単な暗号化ステップを追加する必要がある。
我々は、GLUEベンチマーク上でTextHideを評価し、TextHideが共有勾配や表現に対する攻撃を効果的に防御できることを示す。
論文 参考訳(メタデータ) (2020-10-12T22:22:15Z) - Near-imperceptible Neural Linguistic Steganography via Self-Adjusting
Arithmetic Coding [88.31226340759892]
本稿では,ニューラルネットワークモデルに基づく自己調整型算術符号を用いた秘密メッセージを符号化する新しい言語ステガノグラフィー手法を提案する。
人間の評価によると、生成されたカバーテキストの51%は、実際に盗聴器を騙すことができる。
論文 参考訳(メタデータ) (2020-10-01T20:40:23Z) - Adversarial Watermarking Transformer: Towards Tracing Text Provenance
with Data Hiding [80.3811072650087]
自然言語の透かしを防御として研究し,テキストの出所の発見と追跡に役立てる。
本稿では,適応型透かし変換器(AWT)とエンコーダ・デコーダ・デコーダを併用した対向型透かし変換器(AWT)について述べる。
AWTは、テキストにデータを隠蔽する最初のエンドツーエンドモデルである。
論文 参考訳(メタデータ) (2020-09-07T11:01:24Z) - Privacy Guarantees for De-identifying Text Transformations [17.636430224292866]
我々は、差分プライバシーに基づいて、テキスト変換に基づく復号化手法の正式なプライバシー保証を導出する。
複数の自然言語理解タスクにおける深層学習モデルを用いた,より洗練された単語間置換手法との比較を行った。
単語ごとの置換だけが、様々なタスクのパフォーマンス低下に対して堅牢であることに気付きました。
論文 参考訳(メタデータ) (2020-08-07T12:06:42Z) - De-Anonymizing Text by Fingerprinting Language Generation [24.09735516192663]
攻撃者が適切なサイドチャネルを介してこれらの指紋を計測することで、タイプテキストを推測する方法を示す。
この攻撃は匿名のテキストを匿名化したり、防衛について議論したりするのに役立ちます。
論文 参考訳(メタデータ) (2020-06-17T02:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。