論文の概要: Can You Detect the Difference?
- arxiv url: http://arxiv.org/abs/2507.10475v1
- Date: Mon, 14 Jul 2025 16:55:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:25.561713
- Title: Can You Detect the Difference?
- Title(参考訳): 違いを検知できますか?
- Authors: İsmail Tarım, Aytuğ Onan,
- Abstract要約: 拡散生成テキスト (LLaDA) とAR生成テキスト (LLaMA) の2万サンプルを用いた最初の体系的比較を行った。
LLaDAは、人間のテキストの難易度とバーストネスをよく模倣し、AR指向検出器に対して高い偽陰性率をもたらす。
我々は拡散認識検出器の必要性を強調し、ハイブリッドモデル、拡散特異的なスタイル的シグネチャ、堅牢な透かしなどの方向性を概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of large language models (LLMs) has raised concerns about reliably detecting AI-generated text. Stylometric metrics work well on autoregressive (AR) outputs, but their effectiveness on diffusion-based models is unknown. We present the first systematic comparison of diffusion-generated text (LLaDA) and AR-generated text (LLaMA) using 2 000 samples. Perplexity, burstiness, lexical diversity, readability, and BLEU/ROUGE scores show that LLaDA closely mimics human text in perplexity and burstiness, yielding high false-negative rates for AR-oriented detectors. LLaMA shows much lower perplexity but reduced lexical fidelity. Relying on any single metric fails to separate diffusion outputs from human writing. We highlight the need for diffusion-aware detectors and outline directions such as hybrid models, diffusion-specific stylometric signatures, and robust watermarking.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進歩は、AI生成したテキストを確実に検出することへの懸念を提起している。
スティロメトリックは自己回帰(AR)出力でうまく機能するが、拡散モデルにおけるそれらの有効性は分かっていない。
拡散生成テキスト (LLaDA) とAR生成テキスト (LLaMA) の2万サンプルを用いた最初の体系的比較を行った。
パープレキシティ、バーストネス、語彙の多様性、可読性、BLEU/ROUGEスコアは、LLaDAが人間のテキストをパープレキシティとバーストネスで忠実に模倣し、AR指向検出器に対して高い偽陰性率をもたらすことを示している。
LLaMAは、非常に低いパープレキシティを示すが、語彙の忠実度は低下する。
単一のメトリクスをリライジングすることは、人間の文章から拡散出力を分離するのに失敗する。
我々は拡散認識検出器の必要性を強調し、ハイブリッドモデル、拡散特異的なスタイル的シグネチャ、堅牢な透かしなどの方向性を概説する。
関連論文リスト
- Your Language Model Can Secretly Write Like Humans: Contrastive Paraphrase Attacks on LLM-Generated Text Detectors [65.27124213266491]
テキスト検出を効果的に欺く訓練不要な方法である textbfContrastive textbfParaphrase textbfAttack (CoPA) を提案する。
CoPAは、大規模言語モデルによって生成される人間のような分布とは対照的に、補助的な機械的な単語分布を構築している。
我々の理論的分析は、提案された攻撃の優越性を示唆している。
論文 参考訳(メタデータ) (2025-05-21T10:08:39Z) - Diffuse or Confuse: A Diffusion Deepfake Speech Dataset [1.3654846342364308]
本稿では,現実的な合成音声を生成する新しい手法である拡散モデルについて検討する。
利用可能なツールと事前訓練されたモデルを使って拡散データセットを作成します。
本研究は,拡散生成型ディープフェイクと非拡散型ディープフェイクの品質と,現在のディープフェイク検出システムに対する潜在的な脅威を評価する。
論文 参考訳(メタデータ) (2024-10-09T11:51:08Z) - MOSAIC: Multiple Observers Spotting AI Content [35.67613230687864]
大規模言語モデル(LLM)は大規模に訓練され、強力なテキスト生成能力を備えている。
本研究では,人文テキストから人工的に生成したテキストを自動的に識別する手法を提案する。
種々のジェネレータLSMを用いて実験を行った結果,本手法は各モデルの強度を効果的に活用できることが示唆された。
論文 参考訳(メタデータ) (2024-09-11T20:55:12Z) - Table-to-Text Generation with Pretrained Diffusion Models [0.0]
拡散モデルは様々なテキスト生成タスクにまたがって最先端のパフォーマンスを実現する上で大きな可能性を示している。
タスクに拡散モデルを適用し,詳細な解析を行うことにより,表から表への変換問題へのそれらの適用について検討する。
この結果から,表-テキスト領域において拡散モデルが同等の結果を得ることが明らかとなった。
論文 参考訳(メタデータ) (2024-09-10T15:36:53Z) - LDMol: A Text-to-Molecule Diffusion Model with Structurally Informative Latent Space Surpasses AR Models [55.5427001668863]
テキスト条件付き分子生成のための遅延拡散モデル LDMol を提案する。
実験の結果, LDMolはテキストから分子生成ベンチマークにおいて, 既存の自己回帰ベースラインよりも優れていた。
我々は,LDMolを分子間検索やテキスト誘導分子編集などの下流タスクに適用できることを示す。
論文 参考訳(メタデータ) (2024-05-28T04:59:13Z) - Improved Paraphrase Generation via Controllable Latent Diffusion [60.479643304122504]
textitLatent textitDiffusion textitParaphraser(LDP)を提案する。
実験の結果,LDPはベースラインよりもパラフレーズ生成の質や多様性をよく再現できることがわかった。
論文 参考訳(メタデータ) (2024-04-13T09:24:32Z) - Transfer Learning for Text Diffusion Models [16.97230119564891]
我々は,大規模言語モデル(LLM)の訓練と展開において,自己回帰(AR)デコーディングを置き換えるためのテキスト拡散の可能性を探る。
我々はAR2Diff'と呼ばれる軽量適応手法を用いて、事前訓練されたARモデルをテキスト拡散モデルに変換する。
論文 参考訳(メタデータ) (2024-01-30T17:11:56Z) - To Burst or Not to Burst: Generating and Quantifying Improbable Text [0.24578723416255746]
大規模な言語モデル(LLMs)は、人間によるテキストとはいまだに区別可能である。
我々は、人間と機械のテキストの違いを強調するために、新しいメトリクス、回復可能性を導入する。
このギャップを埋めるための新しいサンプリング手法であるバーストサンプリングを提案する。
論文 参考訳(メタデータ) (2024-01-27T18:34:29Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - On the Possibilities of AI-Generated Text Detection [76.55825911221434]
機械が生成するテキストが人間に近い品質を近似するにつれて、検出に必要なサンプルサイズが増大すると主張している。
GPT-2, GPT-3.5-Turbo, Llama, Llama-2-13B-Chat-HF, Llama-2-70B-Chat-HFなどの最先端テキストジェネレータをoBERTa-Large/Base-Detector, GPTZeroなどの検出器に対して試験した。
論文 参考訳(メタデータ) (2023-04-10T17:47:39Z) - MGTBench: Benchmarking Machine-Generated Text Detection [54.81446366272403]
本稿では,強力な大規模言語モデル(LLM)に対するMGT検出のための最初のベンチマークフレームワークを提案する。
一般に単語が多ければ多いほど性能が向上し,ほとんどの検出手法はトレーニングサンプルをはるかに少なくして同様の性能が得られることを示す。
本研究は, テキスト属性タスクにおいて, モデルに基づく検出手法が依然として有効であることを示す。
論文 参考訳(メタデータ) (2023-03-26T21:12:36Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。