論文の概要: Frustratingly Easy Edit-based Linguistic Steganography with a Masked
Language Model
- arxiv url: http://arxiv.org/abs/2104.09833v1
- Date: Tue, 20 Apr 2021 08:35:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 13:43:49.013660
- Title: Frustratingly Easy Edit-based Linguistic Steganography with a Masked
Language Model
- Title(参考訳): マスク付き言語モデルを用いたイライラし易い編集型言語ステガノグラフィー
- Authors: Honai Ueoka, Yugo Murawaki and Sadao Kurohashi
- Abstract要約: 我々は,仮面言語モデルが既定のソリューションを提供するという考えから,編集に基づく言語ステガノグラフィーを再考する。
提案手法はルール構築を排除し,編集ベースモデルに対して高いペイロード容量を有する。
また、生成ベースの方法よりも自動検出に対してより安全であることが示され、セキュリティ/ペイロード容量のトレードオフをより適切に制御できます。
- 参考スコア(独自算出の注目度): 21.761511258514673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With advances in neural language models, the focus of linguistic
steganography has shifted from edit-based approaches to generation-based ones.
While the latter's payload capacity is impressive, generating genuine-looking
texts remains challenging. In this paper, we revisit edit-based linguistic
steganography, with the idea that a masked language model offers an
off-the-shelf solution. The proposed method eliminates painstaking rule
construction and has a high payload capacity for an edit-based model. It is
also shown to be more secure against automatic detection than a
generation-based method while offering better control of the security/payload
capacity trade-off.
- Abstract(参考訳): 言語モデルの発展に伴い、言語ステガノグラフィーの焦点は編集ベースのアプローチから世代ベースのものへとシフトしている。
ペイロード容量は印象的ですが、本物のテキストを生成することはまだまだ難しいです。
本稿では,編集に基づく言語ステガノグラフィーを再考し,マスク付き言語モデルが既成のソリューションを提供するという考えを述べる。
提案手法は,難解なルール構成を排除し,編集ベースモデルに高いペイロード容量を有する。
また、セキュリティ/ペイロード容量のトレードオフをより制御しながら、世代ベースの方法よりも自動検出に対してより安全であることが示されている。
関連論文リスト
- Phonetic Enhanced Language Modeling for Text-to-Speech Synthesis [33.909582975045545]
TTSモデルの性能向上のための音素拡張言語モデリング手法を提案する。
我々は,自己回帰言語モデルの訓練対象として,音声的にリッチな自己教師表現を活用している。
論文 参考訳(メタデータ) (2024-06-04T06:43:34Z) - Contrastive Perplexity for Controlled Generation: An Application in
Detoxifying Large Language Models [25.212449683397647]
本稿では,暗黙的な知識編集と制御されたテキスト生成のための微調整LDMのためのコントラスト学習目標の統合について検討する。
自己教師型でモデルのトレーニングを容易にするため,市販のLCMを用いてデータ生成のトレーニングを行う。
論文 参考訳(メタデータ) (2024-01-16T16:49:39Z) - Few-Shot Detection of Machine-Generated Text using Style Representations [4.326503887981912]
人間の文章を巧みに模倣する言語モデルは、虐待のかなりのリスクを負う。
そこで本研究では,人間が作成したテキストから推定した書体スタイルの表現を活用することを提案する。
また,人間と機械作家の区別にも有効であることがわかった。
論文 参考訳(メタデータ) (2024-01-12T17:26:51Z) - NeuroCounterfactuals: Beyond Minimal-Edit Counterfactuals for Richer
Data Augmentation [55.17069935305069]
本稿では,緩やかな反ファクトとして設計されたNeuroCounterfactualsを紹介する。
我々の新しい生成的アプローチは、言語モデル適応による感情制御による制約付き復号化の利点を橋渡しする。
論文 参考訳(メタデータ) (2022-10-22T06:29:21Z) - Bridging the Gap Between Training and Inference of Bayesian Controllable
Language Models [58.990214815032495]
大規模事前学習型言語モデルは、自然言語生成タスクにおいて大きな成功を収めている。
BCLMは制御可能な言語生成において効率的であることが示されている。
本稿では,ミスマッチ問題を少ない計算コストで軽減する制御可能な言語生成のための"Gemini Discriminator"を提案する。
論文 参考訳(メタデータ) (2022-06-11T12:52:32Z) - Factorized Neural Transducer for Efficient Language Model Adaptation [51.81097243306204]
空白および語彙予測を分解し,ニューラルトランスデューサの因子化モデルを提案する。
この因子化は、音声認識のためのトランスデューサにスタンドアロン言語モデルの改善を移すことが期待できる。
提案した因子化ニューラルトランスデューサは、言語モデル適応にドメイン外テキストデータを使用する場合、15%から20%のWER改善が得られることを示す。
論文 参考訳(メタデータ) (2021-09-27T15:04:00Z) - Correcting Automated and Manual Speech Transcription Errors using Warped
Language Models [2.8614709576106874]
そこで本稿では,音声の書き起こしを訂正するために,ワープ言語モデルの頑健性を活かした新しい手法を提案する。
提案手法は,音声言語の自動書き起こしと手話書き起こしの両方の単語誤り率を最大10%削減できることを示す。
論文 参考訳(メタデータ) (2021-03-26T16:43:23Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z) - Improving Adversarial Text Generation by Modeling the Distant Future [155.83051741029732]
テキスト計画手法を考察し、上記の問題を緩和するためのモデルに基づく模倣学習手法を提案する。
本稿では,より長い地平線上の生成過程に焦点をあてる新しいガイドネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-04T05:45:13Z) - Limits of Detecting Text Generated by Large-Scale Language Models [65.46403462928319]
誤情報キャンペーンで使用される可能性があるため、長く一貫性のあるテキストを生成できる大規模な言語モデルが危険であると考える者もいる。
ここでは、仮説テスト問題として大規模言語モデル出力検出を定式化し、テキストを真あるいは生成されたものと分類する。
論文 参考訳(メタデータ) (2020-02-09T19:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。