論文の概要: General Framework for Reversible Data Hiding in Texts Based on Masked
Language Modeling
- arxiv url: http://arxiv.org/abs/2206.10112v1
- Date: Tue, 21 Jun 2022 05:02:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 17:38:32.871018
- Title: General Framework for Reversible Data Hiding in Texts Based on Masked
Language Modeling
- Title(参考訳): マスキング言語モデルに基づくテキストにおける可逆データ隠蔽のための汎用フレームワーク
- Authors: Xiaoyan Zheng, Yurun Fang and Hanzhou Wu
- Abstract要約: 本稿では,秘密情報を所定のカバーテキストに埋め込むための一般的なフレームワークを提案する。
マーキングされたテキストから埋め込み情報及び元のカバーテキストを完全検索することができる。
この結果から,原文のカバーテキストと秘密情報の埋め込みと抽出に成功できることが示唆された。
- 参考スコア(独自算出の注目度): 15.136429369639686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the fast development of natural language processing, recent advances in
information hiding focus on covertly embedding secret information into texts.
These algorithms either modify a given cover text or directly generate a text
containing secret information, which, however, are not reversible, meaning that
the original text not carrying secret information cannot be perfectly recovered
unless much side information are shared in advance. To tackle with this
problem, in this paper, we propose a general framework to embed secret
information into a given cover text, for which the embedded information and the
original cover text can be perfectly retrieved from the marked text. The main
idea of the proposed method is to use a masked language model to generate such
a marked text that the cover text can be reconstructed by collecting the words
of some positions and the words of the other positions can be processed to
extract the secret information. Our results show that the original cover text
and the secret information can be successfully embedded and extracted.
Meanwhile, the marked text carrying secret information has good fluency and
semantic quality, indicating that the proposed method has satisfactory
security, which has been verified by experimental results. Furthermore, there
is no need for the data hider and data receiver to share the language model,
which significantly reduces the side information and thus has good potential in
applications.
- Abstract(参考訳): 自然言語処理の急速な発展により、情報隠蔽の最近の進歩は、秘密情報をテキストに秘密に埋め込むことに集中している。
これらのアルゴリズムは、所定のカバーテキストを変更したり、秘密情報を含むテキストを直接生成するが、これは可逆的ではない。
この問題に対処するために,本論文では,隠れた情報を所定のカバーテキストに埋め込むための一般的な枠組みを提案し,そこに埋め込まれた情報とオリジナルのカバーテキストをマークされたテキストから完全に取り出すことができる。
提案手法の主な考え方は,マスク付き言語モデルを用いて,ある位置の単語を収集してカバーテキストを再構成し,他の位置の単語を処理して秘密情報を抽出できるようなマーク付きテキストを生成することである。
その結果,オリジナルカバーテキストと秘密情報の埋め込みと抽出を成功に導くことができた。
一方, 秘密情報を含むマーク付きテキストは, 精度と意味的品質が良好であり, 提案手法は良好な安全性を示し, 実験結果から検証されている。
さらに、言語モデルを共有するためにデータハイダとデータレシーバーは必要ないため、サイド情報を大幅に削減し、アプリケーションにおいて優れた可能性を持っている。
関連論文リスト
- TextDestroyer: A Training- and Annotation-Free Diffusion Method for Destroying Anomal Text from Images [84.08181780666698]
TextDestroyerは、シーンテキスト破壊のためのトレーニングおよびアノテーションなしのメソッドである。
提案手法は,復元前のガウス分布を用いて遅延開始符号中のテキスト領域をスクランブルする。
TextDestroyerの利点は、(1)労働集約型データアノテーションとリソース集約型トレーニングを排除し、(2)より徹底的なテキスト破壊を実現し、認識可能なトレースを防止し、(3)より優れた一般化能力を示し、現実世界のシーンと生成された画像の両方でうまく機能する。
論文 参考訳(メタデータ) (2024-11-01T04:41:00Z) - Generalized Tampered Scene Text Detection in the era of Generative AI [33.38946428507517]
提案手法は,視覚的および見えない偽造型の両方を識別する能力について,法医学モデルの評価を行う。
本稿では,画像中の選択したテキストのテクスチャを微調整し,これらの領域を特定するためにモデルを訓練する,新しい,効果的な事前学習パラダイムを提案する。
また,テキストの特徴を識別することで,オープンセットの一般化を改善するフレームワークであるDAFを提案する。
論文 参考訳(メタデータ) (2024-07-31T08:17:23Z) - Efficiently Leveraging Linguistic Priors for Scene Text Spotting [63.22351047545888]
本稿では,大規模テキストコーパスから言語知識を活用する手法を提案する。
シーンテキストデータセットとよく一致したテキスト分布を生成し、ドメイン内の微調整の必要性を取り除く。
実験結果から,本手法は認識精度を向上するだけでなく,単語のより正確な局所化を可能にすることが示された。
論文 参考訳(メタデータ) (2024-02-27T01:57:09Z) - Text Sanitization Beyond Specific Domains: Zero-Shot Redaction &
Substitution with Large Language Models [0.0]
本稿では,大規模言語モデルを用いて潜在的に敏感な情報を検出・置換するゼロショットテキスト衛生手法を提案する。
本手法は,テキストコヒーレンスとコンテキスト情報を維持しながら,プライバシ保護に優れることを示す。
論文 参考訳(メタデータ) (2023-11-16T18:42:37Z) - Weakly Supervised Scene Text Generation for Low-resource Languages [19.243705770491577]
シーンテキスト認識モデルのトレーニングには,多数の注釈付きトレーニング画像が不可欠である。
既存のシーンテキスト生成手法は、典型的には大量のペアデータに依存しており、低リソース言語では入手が困難である。
本稿では,いくつかの認識レベルラベルを弱監督として活用する,弱教師付きシーンテキスト生成手法を提案する。
論文 参考訳(メタデータ) (2023-06-25T15:26:06Z) - Privacy-Preserving Text Classification on BERT Embeddings with
Homomorphic Encryption [23.010346603025255]
準同型暗号に基づく埋め込みの民営化機構を提案する。
本稿では,BERTの埋め込みを暗号化して保護する手法を提案する。
論文 参考訳(メタデータ) (2022-10-05T21:46:02Z) - Autoregressive Linguistic Steganography Based on BERT and Consistency
Coding [17.881686153284267]
言語ステガノグラフィ(LS)は、秘密情報をテキストに埋め込むことによって、コミュニケーションの存在を隠蔽する。
近年のアルゴリズムでは、言語モデル(LM)を用いてステガノグラフテキストを生成する。
本稿では,BERTと整合性符号化に基づく自己回帰型LSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-26T02:36:55Z) - Near-imperceptible Neural Linguistic Steganography via Self-Adjusting
Arithmetic Coding [88.31226340759892]
本稿では,ニューラルネットワークモデルに基づく自己調整型算術符号を用いた秘密メッセージを符号化する新しい言語ステガノグラフィー手法を提案する。
人間の評価によると、生成されたカバーテキストの51%は、実際に盗聴器を騙すことができる。
論文 参考訳(メタデータ) (2020-10-01T20:40:23Z) - Adversarial Watermarking Transformer: Towards Tracing Text Provenance
with Data Hiding [80.3811072650087]
自然言語の透かしを防御として研究し,テキストの出所の発見と追跡に役立てる。
本稿では,適応型透かし変換器(AWT)とエンコーダ・デコーダ・デコーダを併用した対向型透かし変換器(AWT)について述べる。
AWTは、テキストにデータを隠蔽する最初のエンドツーエンドモデルである。
論文 参考訳(メタデータ) (2020-09-07T11:01:24Z) - Improving Disentangled Text Representation Learning with
Information-Theoretic Guidance [99.68851329919858]
自然言語の独特な性質は、テキスト表現の分離をより困難にする。
情報理論にインスパイアされた本研究では,テキストの不整合表現を効果的に表現する手法を提案する。
条件付きテキスト生成とテキストスタイル転送の両方の実験は、不整合表現の質を実証する。
論文 参考訳(メタデータ) (2020-06-01T03:36:01Z) - TRIE: End-to-End Text Reading and Information Extraction for Document
Understanding [56.1416883796342]
本稿では,統合されたエンドツーエンドのテキスト読解と情報抽出ネットワークを提案する。
テキスト読解のマルチモーダル視覚的特徴とテキスト的特徴は、情報抽出のために融合される。
提案手法は, 精度と効率の両面において, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-05-27T01:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。