論文の概要: Controllable Fake Document Infilling for Cyber Deception
- arxiv url: http://arxiv.org/abs/2210.09917v1
- Date: Tue, 18 Oct 2022 14:59:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 15:42:16.721257
- Title: Controllable Fake Document Infilling for Cyber Deception
- Title(参考訳): サイバー詐欺対策のための制御可能なフェイク文書
- Authors: Yibo Hu, Yu Lin, Erick Skorupa Parolin, Latifur Khan, Kevin Hamlen
- Abstract要約: そこで本稿では,Fake Document Infilling (FDI) という新しいモデルを提案する。
FDIは、重要な情報を保護し、敵を欺くために、適度な修正を施した、信頼性の高い偽物を生成する上で、ベースラインよりも優れています。
- 参考スコア(独自算出の注目度): 31.734574811062053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works in cyber deception study how to deter malicious intrusion by
generating multiple fake versions of a critical document to impose costs on
adversaries who need to identify the correct information. However, existing
approaches are context-agnostic, resulting in sub-optimal and unvaried outputs.
We propose a novel context-aware model, Fake Document Infilling (FDI), by
converting the problem to a controllable mask-then-infill procedure. FDI masks
important concepts of varied lengths in the document, then infills a realistic
but fake alternative considering both the previous and future contexts. We
conduct comprehensive evaluations on technical documents and news stories.
Results show that FDI outperforms the baselines in generating highly believable
fakes with moderate modification to protect critical information and deceive
adversaries.
- Abstract(参考訳): サイバー・デセプションにおける最近の研究は、正しい情報を識別する必要がある敵にコストを課すために、重要な文書の複数の偽バージョンを生成して悪意のある侵入を防止する方法を研究する。
しかし、既存のアプローチは文脈に依存しないため、サブ最適出力と未検証出力が生じる。
そこで我々は,FDI(Fake Document Infilling)という新しいコンテキスト認識モデルを提案し,この問題を制御可能なマスク-then-infillプロシージャに変換する。
FDIマスクは文書内の様々な長さの重要概念を隠蔽し、それ以前のコンテキストと将来のコンテキストの両方を考慮して現実的だが偽の代替品を埋める。
技術文書やニュース記事を総合的に評価する。
その結果、FDIは、重要な情報や敵を欺くために、適度な修正を施した信頼性の高い偽物を生成する上で、ベースラインよりも優れていた。
関連論文リスト
- Privacy-Aware Document Visual Question Answering [47.89754310347398]
Document Visual Question Answering (DocVQA)は、文書理解の急速に成長している分野である。
ドキュメントには機密情報や著作権情報が含まれているにもかかわらず、現在のDocVQAメソッドはいずれも強力なプライバシー保証を提供していない。
DocVQAで使用されるマルチモーダルLLMモデルの現状において、プライバシー問題を強調し、可能なソリューションを探究する。
論文 参考訳(メタデータ) (2023-12-15T06:30:55Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - DocMAE: Document Image Rectification via Self-supervised Representation
Learning [144.44748607192147]
文書画像修正のための新しい自己教師型フレームワークDocMAEを提案する。
まず、背景を除いた文書画像のランダムなパッチをマスクし、欠落したピクセルを再構成する。
このような自己教師型学習手法により、ネットワークは変形文書の本質的な構造を学習することが奨励される。
論文 参考訳(メタデータ) (2023-04-20T14:27:15Z) - Verifying the Robustness of Automatic Credibility Assessment [79.08422736721764]
テキスト分類法は信頼性の低い内容を検出する手段として広く研究されている。
入力テキストの無意味な変更は、モデルを誤解させることがある。
偽情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAを紹介する。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Synthetic Disinformation Attacks on Automated Fact Verification Systems [53.011635547834025]
本研究では,2つのシミュレーション環境において,自動ファクトチェッカーの合成正反対証拠に対する感度について検討する。
これらのシステムでは,これらの攻撃に対して大幅な性能低下がみられた。
偽情報の発生源としての現代のNLGシステムの脅威の増大について論じる。
論文 参考訳(メタデータ) (2022-02-18T19:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。