論文の概要: Semantic Reconstruction of Adversarial Plagiarism: A Context-Aware Framework for Detecting and Restoring "Tortured Phrases" in Scientific Literature
- arxiv url: http://arxiv.org/abs/2512.10435v1
- Date: Thu, 11 Dec 2025 08:53:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.290895
- Title: Semantic Reconstruction of Adversarial Plagiarism: A Context-Aware Framework for Detecting and Restoring "Tortured Phrases" in Scientific Literature
- Title(参考訳): 逆境プラギア主義のセマンティック再構築 : 科学的文献における「学習句」の検出と復元のための文脈認識フレームワーク
- Authors: Agniva Maiti, Prajwal Panth, Suresh Chandra Satapathy,
- Abstract要約: 逆行性プラギアリズム(SRAP)のセマンティック再構築を提案する。
SRAPは、これらの異常を検出するだけでなく、元の用語を数学的に復元するために設計されたフレームワークである。
我々は,(1)トークンレベルの擬似パープレキシティを用いたドメイン固有マスキング言語モデル(SciBERT)による統計的異常検出,(2)密度ベクトル検索(FAISS)と文レベルのアライメント(SBERT)を用いたソースベースセマンティック再構築という2段階アーキテクチャを用いている。
- 参考スコア(独自算出の注目度): 4.905540561146363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integrity and reliability of scientific literature is facing a serious threat by adversarial text generation techniques, specifically from the use of automated paraphrasing tools to mask plagiarism. These tools generate "tortured phrases", statistically improbable synonyms (e.g. "counterfeit consciousness" for "artificial intelligence"), that preserve the local grammar while obscuring the original source. Most existing detection methods depend heavily on static blocklists or general-domain language models, which suffer from high false-negative rates for novel obfuscations and cannot determine the source of the plagiarized content. In this paper, we propose Semantic Reconstruction of Adversarial Plagiarism (SRAP), a framework designed not only to detect these anomalies but to mathematically recover the original terminology. We use a two-stage architecture: (1) statistical anomaly detection with a domain-specific masked language model (SciBERT) using token-level pseudo-perplexity, and (2) source-based semantic reconstruction using dense vector retrieval (FAISS) and sentence-level alignment (SBERT). Experiments on a parallel corpus of adversarial scientific text show that while zero-shot baselines fail completely (0.00 percent restoration accuracy), our retrieval-augmented approach achieves 23.67 percent restoration accuracy, significantly outperforming baseline methods. We also show that static decision boundaries are necessary for robust detection in jargon-heavy scientific text, since dynamic thresholding fails under high variance. SRAP enables forensic analysis by linking obfuscated expressions back to their most probable source documents.
- Abstract(参考訳): 科学文献の完全性と信頼性は、敵対的なテキスト生成技術によって深刻な脅威に直面している。
これらのツールは「ねじれたフレーズ」や統計的に不可能な同義語(例えば「芸術的知性」の「偽造意識」)を生成し、原典を隠しながら現地の文法を保存する。
既存の検出手法の多くは静的ブロックリストや一般ドメイン言語モデルに大きく依存しており、これは新しい難読化の偽陰性率が高く、盗作コンテンツのソースを決定できない。
本稿では,これらの異常を検知するだけでなく,元の用語を数学的に復元するフレームワークであるSRAP(Semantic Reconstruction of Adversarial Plagiarism)を提案する。
本研究では,(1)トークンレベルの擬似パープレキシティを用いたドメイン固有マスキング言語モデル(SciBERT)による統計的異常検出,(2)密度ベクトル検索(FAISS)と文レベルのアライメント(SBERT)を用いたソースベースセマンティック再構築を行う。
逆方向の学術テキストの並列コーパス実験では、ゼロショットベースラインは完全に失敗する(0.00パーセントの復元精度)が、我々の検索強化アプローチは23.67パーセントの復元精度を達成し、ベースライン法を著しく上回っている。
また, 動的しきい値設定が高分散条件下で失敗するため, ジャーゴン重科学的テキストのロバスト検出には静的決定境界が必要であることを示す。
SRAPは、難解な表現を最も可能性の高いソースドキュメントにリンクすることで、法医学的な解析を可能にする。
関連論文リスト
- PADBen: A Comprehensive Benchmark for Evaluating AI Text Detectors Against Paraphrase Attacks [2.540711742769252]
そこで本研究では,AIGT識別のために設計された検出システムに対して,繰り返しパラメタしたテキストが回避される理由について検討する。
パラフレーズ攻撃シナリオに対する検出ロバスト性を系統的に評価した最初のベンチマークであるPADBenを紹介する。
論文 参考訳(メタデータ) (2025-11-01T05:59:46Z) - Modeling the Attack: Detecting AI-Generated Text by Quantifying Adversarial Perturbations [2.7620215077666557]
現代の検出器は敵の攻撃に弱いことで知られており、パラフレーズは効果的な回避技術として際立っている。
本稿では,まず,標準的な対人訓練の限界を定量化することにより,対人的堅牢性の比較研究を行う。
次に、新しい、はるかに回復力のある検出フレームワークを紹介します。
論文 参考訳(メタデータ) (2025-09-22T13:03:53Z) - Your Language Model Can Secretly Write Like Humans: Contrastive Paraphrase Attacks on LLM-Generated Text Detectors [77.82885394684202]
テキスト検出を効果的に欺く訓練不要な方法である textbfContrastive textbfParaphrase textbfAttack (CoPA) を提案する。
CoPAは、大規模言語モデルによって生成される人間のような分布とは対照的に、補助的な機械的な単語分布を構築している。
我々の理論的分析は、提案された攻撃の優越性を示唆している。
論文 参考訳(メタデータ) (2025-05-21T10:08:39Z) - Text-CRS: A Generalized Certified Robustness Framework against Textual Adversarial Attacks [39.51297217854375]
ランダムな平滑化に基づく自然言語処理(NLP)のための信頼性の高いロバストネスフレームワークであるText-CRSを提案する。
テキストCRSは、4つの異なる単語レベルの対数操作すべてに対処でき、精度が大幅に向上することを示す。
また,同義語置換攻撃に対する最先端認証よりも,単語レベルの4つの操作の精度と半径に関する最初のベンチマークも提供する。
論文 参考訳(メタデータ) (2023-07-31T13:08:16Z) - Beyond Black Box AI-Generated Plagiarism Detection: From Sentence to
Document Level [4.250876580245865]
既存のAI生成テキスト分類器は精度が限られており、しばしば偽陽性を生成する。
自然言語処理(NLP)技術を用いた新しい手法を提案する。
与えられた質問の複数のパラフレーズ付きバージョンを生成し、それを大きな言語モデルに入力し、回答を生成する。
本研究では,コサイン類似度に基づくコントラスト的損失関数を用いて,生成文と学生の反応とをマッチングする。
論文 参考訳(メタデータ) (2023-06-13T20:34:55Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Adversarial Semantic Collisions [129.55896108684433]
意味的衝突:意味論的に無関係だが、NLPモデルにより類似と判断されるテキストについて検討する。
我々は,意味的衝突を生成するための勾配に基づくアプローチを開発した。
パープレキシティに基づくフィルタリングを避けるために,意味的衝突を生成する方法を示す。
論文 参考訳(メタデータ) (2020-11-09T20:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。