論文の概要: Detecting the Machine: A Comprehensive Benchmark of AI-Generated Text Detectors Across Architectures, Domains, and Adversarial Conditions
- arxiv url: http://arxiv.org/abs/2603.17522v1
- Date: Wed, 18 Mar 2026 09:27:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.601976
- Title: Detecting the Machine: A Comprehensive Benchmark of AI-Generated Text Detectors Across Architectures, Domains, and Adversarial Conditions
- Title(参考訳): マシンの検出: アーキテクチャ、ドメイン、および逆条件を含むAI生成テキスト検出器の総合ベンチマーク
- Authors: Madhav S. Baidya, S. S. Baidya, Chirag Chawla,
- Abstract要約: 既存のベンチマークでは、理想的な条件下で単一のデータセット上の1つの検出器を評価する。
本稿では,2つのコーパスにまたがる多様な検出手法を評価するベンチマークを提案する。
その結果, 変圧器モデルでは, ほぼ完全な分散性能が得られるが, ドメインシフト下では劣化することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid proliferation of large language models (LLMs) has created an urgent need for robust and generalizable detectors of machine-generated text. Existing benchmarks typically evaluate a single detector on a single dataset under ideal conditions, leaving open questions about cross-domain transfer, cross-LLM generalization, and adversarial robustness. We present a comprehensive benchmark evaluating diverse detection approaches across two corpora: HC3 (23,363 human-ChatGPT pairs) and ELI5 (15,000 human-Mistral-7B pairs). Methods include classical classifiers, fine-tuned transformer encoders (BERT, RoBERTa, ELECTRA, DistilBERT, DeBERTa-v3), a CNN, an XGBoost stylometric model, perplexity-based detectors, and LLM-as-detector prompting. Results show that transformer models achieve near-perfect in-distribution performance but degrade under domain shift. The XGBoost stylometric model matches performance while remaining interpretable. LLM-based detectors underperform and are affected by generator-detector identity bias. Perplexity-based methods exhibit polarity inversion, with modern LLM outputs showing lower perplexity than human text, but remain effective when corrected. No method generalizes robustly across domains and LLM sources.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な普及は、機械生成テキストの堅牢で一般化可能な検出に緊急の必要性を生み出している。
既存のベンチマークでは、1つのデータセット上の1つの検出器を理想的な条件下で評価し、クロスドメイン転送、クロスLLM一般化、対向ロバスト性に関するオープンな疑問を残している。
本稿では,HC3 (23,363個のヒト-ChatGPTペア) とERI5 (15,000個のヒト-ミストラル-7Bペア) の2つのコーパスにおける多様な検出アプローチを評価する。
古典的な分類器、微調整トランスフォーマーエンコーダ(BERT, RoBERTa, ELECTRA, DistilBERT, DeBERTa-v3)、CNN、XGBoostのテクスチャモデル、パープレキシティベースの検出器、LLM-as-detectorプロンプトなどである。
その結果, 変圧器モデルでは, ほぼ完全な分散性能が得られるが, ドメインシフト下では劣化することがわかった。
XGBoostのスタイリクスモデルは、解釈可能のままの性能にマッチする。
LLMベースの検出器は、ジェネレータと検出器の同一性バイアスの影響を受けない。
パープレキシティに基づく手法は極性反転を示し、現代のLCM出力は人間のテキストよりも低いパープレキシティを示すが、修正しても有効である。
ドメインやLLMソースをまたいで堅牢に一般化する手法は存在しない。
関連論文リスト
- Universal Transformation of One-Class Classifiers for Unsupervised Anomaly Detection [51.73001988341294]
異常検出は通常、一級分類問題として定式化される。
本稿では,任意の1クラス分類器に基づく異常検出器を,完全に教師なしの手法に変換するデータセット折り畳み方式を提案する。
論文 参考訳(メタデータ) (2026-02-13T16:54:12Z) - Beyond Raw Detection Scores: Markov-Informed Calibration for Boosting Machine-Generated Text Detection [105.14032334647932]
機械生成テキスト(MGT)は偽情報やフィッシングなどのリスクを生じさせ、信頼性の高い検出の必要性を強調している。
MGTの統計的に区別可能な特徴を抽出するメトリックベース法は、オーバーフィットしがちな複雑なモデルベース法よりも実用的であることが多い。
本稿では,2つのコンテキスト検出スコアの関係をモデル化したマルコフ情報を用いたスコアキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2026-02-08T16:06:12Z) - Minimizing Mismatch Risk: A Prototype-Based Routing Framework for Zero-shot LLM-generated Text Detection [15.739137990102991]
ゼロショット法は、サロゲートモデルを用いて統計的シグネチャを演算することでLLM生成テキストを検出する。
既存のアプローチは通常、未知のソースに関係なく、すべての入力に対して固定サロゲートを使用する。
本稿では,2段階の学習を通じてテキスト検出親和性を学習するプロトタイプベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-01T14:02:51Z) - Rethinking Cross-Generator Image Forgery Detection through DINOv3 [62.80415066351157]
クロスジェネレータ検出は、新しい挑戦フォージェネレータモデルとして登場した。
凍結した視覚基盤モデル、特にDINOv3は、既に強力なクロスジェネレータ検出能力を持っていることを示す。
トレーニング不要なトークンランク戦略を導入し、続いて軽量な線形プローブを用いて、認証関連トークンの小さなサブセットを選択する。
論文 参考訳(メタデータ) (2025-11-27T14:01:50Z) - Assessing Classical Machine Learning and Transformer-based Approaches for Detecting AI-Generated Research Text [0.0]
機械学習アプローチは、ChatGPT-3.5生成したテキストと人間のテキストを区別することができる。
DistilBERTは全体的な最高のパフォーマンスを達成し、Logistic RegressionとBERT-Customはしっかりとしたバランスの取れた代替手段を提供する。
論文 参考訳(メタデータ) (2025-09-20T04:36:21Z) - DetectAnyLLM: Towards Generalizable and Robust Detection of Machine-Generated Text Across Domains and Models [60.713908578319256]
タスク指向の知識で検出器を最適化するために,DDL(Direct Discrepancy Learning)を提案する。
そこで本研究では,最新のMGTD性能を実現する統合検出フレームワークであるTectAnyLLMを紹介する。
MIRAGEは5つのテキストドメインにまたがる10のコーパスから人書きテキストをサンプリングし、17個の最先端のLLMを使用して再生成または修正する。
論文 参考訳(メタデータ) (2025-09-15T10:59:57Z) - RepreGuard: Detecting LLM-Generated Text by Revealing Hidden Representation Patterns [50.401907401444404]
大規模言語モデル(LLM)は、誤用を防止し、信頼できるAIシステムを構築するために不可欠である。
本稿では,統計量に基づく効率的な検出手法であるRepreGuardを提案する。
実験結果から、RepreGuardは、平均94.92%のAUROCですべてのベースラインでID(in-distriion)とOOD(OOD)の両方のシナリオでパフォーマンスが向上していることが示された。
論文 参考訳(メタデータ) (2025-08-18T17:59:15Z) - MOSAIC: Multiple Observers Spotting AI Content [35.67613230687864]
大規模言語モデル(LLM)は大規模に訓練され、強力なテキスト生成能力を備えている。
本研究では,人文テキストから人工的に生成したテキストを自動的に識別する手法を提案する。
種々のジェネレータLSMを用いて実験を行った結果,本手法は各モデルの強度を効果的に活用できることが示唆された。
論文 参考訳(メタデータ) (2024-09-11T20:55:12Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。