論文の概要: Near-imperceptible Neural Linguistic Steganography via Self-Adjusting
Arithmetic Coding
- arxiv url: http://arxiv.org/abs/2010.00677v1
- Date: Thu, 1 Oct 2020 20:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 08:28:46.856361
- Title: Near-imperceptible Neural Linguistic Steganography via Self-Adjusting
Arithmetic Coding
- Title(参考訳): 自己調整算術符号化による近知覚型神経言語ステガノグラフィー
- Authors: Jiaming Shen and Heng Ji and Jiawei Han
- Abstract要約: 本稿では,ニューラルネットワークモデルに基づく自己調整型算術符号を用いた秘密メッセージを符号化する新しい言語ステガノグラフィー手法を提案する。
人間の評価によると、生成されたカバーテキストの51%は、実際に盗聴器を騙すことができる。
- 参考スコア(独自算出の注目度): 88.31226340759892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linguistic steganography studies how to hide secret messages in natural
language cover texts. Traditional methods aim to transform a secret message
into an innocent text via lexical substitution or syntactical modification.
Recently, advances in neural language models (LMs) enable us to directly
generate cover text conditioned on the secret message. In this study, we
present a new linguistic steganography method which encodes secret messages
using self-adjusting arithmetic coding based on a neural language model. We
formally analyze the statistical imperceptibility of this method and
empirically show it outperforms the previous state-of-the-art methods on four
datasets by 15.3% and 38.9% in terms of bits/word and KL metrics, respectively.
Finally, human evaluations show that 51% of generated cover texts can indeed
fool eavesdroppers.
- Abstract(参考訳): 言語ステガノグラフィーは、自然言語カバーテキストに秘密メッセージを隠す方法を研究する。
伝統的手法は、秘密のメッセージを語彙置換や構文修正を通じて無実のテキストに変換することを目的としている。
近年、ニューラルネットワークモデル(LM)の進歩により、秘密メッセージに条件付きカバーテキストを直接生成できるようになりました。
本研究では,ニューラルランゲージモデルに基づく自己調整算術符号化を用いて,秘密メッセージを符号化する新しい言語ステガノグラフィー法を提案する。
本手法の統計的インセプタビリティを形式的に解析し,従来の4つのデータセットにおいて,ビット/ワードとklの指標でそれぞれ15.3%,38.9%の精度で先行手法を上回っていることを示す。
最後に、人間による評価では、生成されたカバーテキストの51%が本当に盗聴者を騙すことができる。
関連論文リスト
- Zero-shot Generative Linguistic Steganography [31.19052670719132]
本稿では,言語ステガノグラフィのための文脈内学習に基づくゼロショット手法を提案する。
実験結果から,本手法はどの手法よりも無邪気で無知なステゴテキストを生成できることが示唆された。
論文 参考訳(メタデータ) (2024-03-16T08:31:25Z) - Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - Hiding in Plain Sight: Towards the Science of Linguistic Steganography [0.0]
隠蔽通信(きゅうきょくがく、英: Covert Communication)は、秘密を隠蔽する行為で、無害な公的な物体(隠蔽コード)の中に隠蔽する行為である。
言語ステガノグラフィー(Lguistic steganography)は、会話やツイートなどの短い公開コミュニケーションなど、自然言語のテキストで秘密のメッセージを符号化する実践である。
論文 参考訳(メタデータ) (2023-12-28T06:00:55Z) - Reverse-Engineering Decoding Strategies Given Blackbox Access to a
Language Generation System [73.52878118434147]
テキスト生成に使用する復号法をリバースエンジニアリングする手法を提案する。
どのようなデコード戦略が使われたかを検出する能力は、生成されたテキストを検出することに影響を及ぼす。
論文 参考訳(メタデータ) (2023-09-09T18:19:47Z) - DNA-GPT: Divergent N-Gram Analysis for Training-Free Detection of
GPT-Generated Text [82.5469544192645]
ダイバージェントN-Gram解析(DNA-GPT)と呼ばれる新しいトレーニング不要検出手法を提案する。
元の部分と新しい部分の違いをN-gram解析により解析することにより,機械生成テキストと人文テキストの分布に顕著な相違が明らかになった。
その結果, ゼロショットアプローチは, 人文とGPT生成テキストの区別において, 最先端の性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-05-27T03:58:29Z) - Open Vocabulary Electroencephalography-To-Text Decoding and Zero-shot
Sentiment Classification [78.120927891455]
最先端のブレイン・トゥ・テキストシステムは、ニューラルネットワークを使用して脳信号から直接言語を復号することに成功した。
本稿では,自然読解課題における語彙的脳波(EEG)-テキスト列列列復号化とゼロショット文感性分類に問題を拡張する。
脳波-テキストデコーディングで40.1%のBLEU-1スコア、ゼロショット脳波に基づく3次感情分類で55.6%のF1スコアを達成し、教師付きベースラインを著しく上回る結果となった。
論文 参考訳(メタデータ) (2021-12-05T21:57:22Z) - Lexically Aware Semi-Supervised Learning for OCR Post-Correction [90.54336622024299]
世界中の多くの言語における既存の言語データの多くは、非デジタル化された書籍や文書に閉じ込められている。
従来の研究は、あまり良くない言語を認識するためのニューラル・ポスト・コレクション法の有用性を実証してきた。
そこで本研究では,生画像を利用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:39:02Z) - Exploiting Language Model for Efficient Linguistic Steganalysis: An
Empirical Study [23.311007481830647]
言語ステガナリシスを効果的に行うための2つの方法を提案する。
1つはRNNに基づく言語モデルの事前トレーニングであり、もう1つはシーケンスオートエンコーダの事前トレーニングである。
論文 参考訳(メタデータ) (2021-07-26T12:37:18Z) - Provably Secure Generative Linguistic Steganography [29.919406917681282]
提案手法は, 新規にセキュアな生成言語分類法ADGである。
ADGは、市販の言語モデルによって与えられる確率に応じて、トークンの適応動的グループ化によって秘密情報を埋め込む。
論文 参考訳(メタデータ) (2021-06-03T17:27:10Z) - Graph-Stega: Semantic Controllable Steganographic Text Generation Guided
by Knowledge Graph [29.189037080306353]
本稿では,既存のモデルと密に異なるテキスト生成ステガノグラフィー手法を提案する。
我々は、知識グラフ(KG)を用いて、ステガノグラフ文の生成をガイドする。
実験結果から,提案モデルが生成したテキストの品質と意味表現の両方を保証できることが示唆された。
論文 参考訳(メタデータ) (2020-06-02T06:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。