論文の概要: Covert Message Passing over Public Internet Platforms Using Model-Based
Format-Transforming Encryption
- arxiv url: http://arxiv.org/abs/2110.07009v1
- Date: Wed, 13 Oct 2021 20:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-16 09:14:06.749605
- Title: Covert Message Passing over Public Internet Platforms Using Model-Based
Format-Transforming Encryption
- Title(参考訳): Model-based Format-Transforming Encryption を用いたパブリックインターネットプラットフォーム上のカバートメッセージパッシング
- Authors: Luke A. Bauer, James K. Howes IV, Sam A. Markelon, Vincent
Bindschaedler, Thomas Shrimpton
- Abstract要約: 我々は、大規模でパブリックなインターネットプラットフォーム上での秘密のメッセージングシステムを構築します。
我々はGPT-2を生成モデルとして用いて,ビットストリングを自然言語のカバーテキストに暗号化的に変換する。
- 参考スコア(独自算出の注目度): 7.965371694487026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new type of format-transforming encryption where the format of
ciphertexts is implicitly encoded within a machine-learned generative model.
Around this primitive, we build a system for covert messaging over large,
public internet platforms (e.g., Twitter). Loosely, our system composes an
authenticated encryption scheme, with a method for encoding random ciphertext
bits into samples from the generative model's family of seed-indexed
token-distributions. By fixing a deployment scenario, we are forced to consider
system-level and algorithmic solutions to real challenges -- such as
receiver-side parsing ambiguities, and the low information-carrying capacity of
actual token-distributions -- that were elided in prior work. We use GPT-2 as
our generative model so that our system cryptographically transforms plaintext
bitstrings into natural-language covertexts suitable for posting to public
platforms. We consider adversaries with full view of the internet platform's
content, whose goal is to surface posts that are using our system for covert
messaging. We carry out a suite of experiments to provide heuristic evidence of
security and to explore tradeoffs between operational efficiency and
detectability.
- Abstract(参考訳): 本稿では,暗号文の形式を機械学習生成モデル内で暗黙的に符号化する新しい形式変換暗号を導入する。
このプリミティブの周りに、大規模なパブリックなインターネットプラットフォーム(例えばTwitter)上での隠蔽メッセージングシステムを構築します。
本システムでは,生成モデルのシードインデックス化トークン分布系から,ランダム暗号ビットをサンプルに符号化する方法を用いて,認証暗号方式を構成する。
デプロイメントのシナリオを修正することで、レシーバ側パーシングの曖昧さや実際のトークン配信能力の低いといった実際の課題に対するシステムレベルとアルゴリズムのソリューションを事前に検討せざるを得なくなりました。
我々はgpt-2を生成モデルとして使用し、暗号的に平文ビット文字列を公開プラットフォームへの投稿に適した自然言語カバーテキストに変換する。
インターネットプラットフォームのコンテンツをフルに見る敵は,当社のシステムを隠蔽メッセージングに使用しているポストを提示することを目的としている。
セキュリティのヒューリスティックな証拠を提供し、運用効率と検出可能性のトレードオフを探るため、一連の実験を行います。
関連論文リスト
- Detecting Machine-Generated Long-Form Content with Latent-Space Variables [54.07946647012579]
既存のゼロショット検出器は主に、現実世界のドメインシフトに弱いトークンレベルの分布に焦点を当てている。
本稿では,イベント遷移などの抽象的要素を機械対人文検出の鍵となる要因として組み込んだ,より堅牢な手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T18:42:09Z) - Harnessing the Intrinsic Knowledge of Pretrained Language Models for Challenging Text Classification Settings [5.257719744958367]
この論文は、事前学習された言語モデル(PLM)の本質的な知識を活用することによって、テキスト分類における3つの挑戦的な設定を探求する。
本研究では, PLMの文脈表現に基づく特徴量を利用したモデルを構築し, 人間の精度に匹敵する, あるいは超越する性能を実現する。
最後に、実効的な実演を選択することで、大規模言語モデルの文脈内学習プロンプトに対する感受性に取り組む。
論文 参考訳(メタデータ) (2024-08-28T09:07:30Z) - Detection of Machine-Generated Text: Literature Survey [0.0]
本研究の目的は,機械生成テキスト分野における成果と成果をコンパイルし,合成することである。
また、機械が生成するテキストの傾向を概観し、より大きな社会的意味を探求する。
論文 参考訳(メタデータ) (2024-01-02T01:44:15Z) - From Text to Mask: Localizing Entities Using the Attention of Text-to-Image Diffusion Models [38.14123683674355]
本稿では,テキスト・画像拡散モデルの認知ネットワークにおける注意機構を利用する手法を提案する。
そこで我々はPascal VOC 2012 と Microsoft COCO 2014 のセマンティックセグメンテーションを弱教師付きで評価した。
本研究は,セグメンテーションの拡散モデルに隠された豊富なマルチモーダル知識を抽出する方法を明らかにする。
論文 参考訳(メタデータ) (2023-09-08T04:10:01Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Long Text Generation by Modeling Sentence-Level and Discourse-Level
Coherence [59.51720326054546]
本稿では,デコード処理における文レベルと談話レベルにおけるプレフィックス文を表現可能な長文生成モデルを提案する。
我々のモデルは最先端のベースラインよりも一貫性のあるテキストを生成することができる。
論文 参考訳(メタデータ) (2021-05-19T07:29:08Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - Causal BERT : Language models for causality detection between events
expressed in text [1.0756038762528868]
イベント間の因果関係の理解は、ヘルスケア、ビジネスリスク管理、財務など、多くの分野で役立ちます。
自然言語イベント間の「因果関係」は、暗黙的に表現されることが多いため、単に挑戦を続ける。
提案手法は3つの異なるデータ分布において最先端の性能を達成し,因果図の抽出に利用できる。
論文 参考訳(メタデータ) (2020-12-10T04:59:12Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - Contextualized Perturbation for Textual Adversarial Attack [56.370304308573274]
逆例は自然言語処理(NLP)モデルの脆弱性を明らかにする。
本稿では,フロートおよび文法的出力を生成するContextualized AdversaRial Example生成モデルであるCLAREを提案する。
論文 参考訳(メタデータ) (2020-09-16T06:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。