論文の概要: Detecting LLM-Generated Text with Performance Guarantees
- arxiv url: http://arxiv.org/abs/2601.06586v1
- Date: Sat, 10 Jan 2026 14:52:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.888995
- Title: Detecting LLM-Generated Text with Performance Guarantees
- Title(参考訳): 性能保証を用いたLCM生成テキストの検出
- Authors: Hongyi Zhou, Jin Zhu, Ying Yang, Chengchun Shi,
- Abstract要約: GPT、Claude、Gemini、Grokといった大規模言語モデル(LLM)は、私たちの日常生活に深く統合されています。
対話やメールの起草から、教育やコーディングの支援まで、幅広いタスクをサポートするようになった。
極めて人間らしいテキストを生成する能力は、フェイクニュースの拡散など、深刻な懸念を提起する。
- 参考スコア(独自算出の注目度): 13.29284903739996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) such as GPT, Claude, Gemini, and Grok have been deeply integrated into our daily life. They now support a wide range of tasks -- from dialogue and email drafting to assisting with teaching and coding, serving as search engines, and much more. However, their ability to produce highly human-like text raises serious concerns, including the spread of fake news, the generation of misleading governmental reports, and academic misconduct. To address this practical problem, we train a classifier to determine whether a piece of text is authored by an LLM or a human. Our detector is deployed on an online CPU-based platform https://huggingface.co/spaces/stats-powered-ai/StatDetectLLM, and contains three novelties over existing detectors: (i) it does not rely on auxiliary information, such as watermarks or knowledge of the specific LLM used to generate the text; (ii) it more effectively distinguishes between human- and LLM-authored text; and (iii) it enables statistical inference, which is largely absent in the current literature. Empirically, our classifier achieves higher classification accuracy compared to existing detectors, while maintaining type-I error control, high statistical power, and computational efficiency.
- Abstract(参考訳): GPT、Claude、Gemini、Grokといった大規模言語モデル(LLM)は、私たちの日常生活に深く統合されています。
対話やメールの起草、教育やコーディングの支援、検索エンジンとしての役割など、幅広いタスクをサポートするようになった。
しかし、高い人間的なテキストを生成する能力は、偽ニュースの拡散、誤解を招く政府報告の発生、学術的不正など、深刻な懸念を提起する。
この現実的な問題に対処するために、私たちは分類器を訓練し、あるテキストがLLMによって作成されているか、あるいは人間によって作成されているかを決定する。
私たちの検出器は、オンラインCPUベースのプラットフォーム https://huggingface.co/spaces/stats-powered-ai/StatDetectLLM にデプロイされています。
一 テキストを生成するのに使用する特定のLLMの透かし又は知識等の補助情報に頼らないこと。
二 より効果的に人文と LLM によるテキストを区別すること。
三 現在の文献にはほとんど欠落している統計的推測を可能にすること。
実証的に,本分類器は,I型誤差制御,高統計パワー,計算効率を維持しながら,既存の検出器と比較して高い分類精度を実現する。
関連論文リスト
- Diversity Boosts AI-Generated Text Detection [51.56484100374058]
DivEyeは、予備的な機能を使って、予測不可能がテキスト間でどのように変動するかをキャプチャする、新しいフレームワークである。
提案手法は、既存のゼロショット検出器を最大33.2%向上させ、微調整ベースラインとの競合性能を達成する。
論文 参考訳(メタデータ) (2025-09-23T10:21:22Z) - Your Language Model Can Secretly Write Like Humans: Contrastive Paraphrase Attacks on LLM-Generated Text Detectors [77.82885394684202]
テキスト検出を効果的に欺く訓練不要な方法である textbfContrastive textbfParaphrase textbfAttack (CoPA) を提案する。
CoPAは、大規模言語モデルによって生成される人間のような分布とは対照的に、補助的な機械的な単語分布を構築している。
我々の理論的分析は、提案された攻撃の優越性を示唆している。
論文 参考訳(メタデータ) (2025-05-21T10:08:39Z) - DetectRL: Benchmarking LLM-Generated Text Detection in Real-World Scenarios [38.952481877244644]
我々は,最新技術(SOTA)検出技術でさえも,このタスクにおいてまだ性能が劣っていることを強調した新しいベンチマークであるTectorRLを提案する。
人気のある大規模言語モデル(LLM)を使用して、実世界のアプリケーションとの整合性を向上するデータを生成しました。
我々は,書式,モデルタイプ,攻撃方法,テキストの長さ,および実世界の人間の筆記因子が,さまざまな種類の検知器に与える影響について分析した。
論文 参考訳(メタデータ) (2024-10-31T09:01:25Z) - LLMDet: A Third Party Large Language Models Generated Text Detection
Tool [119.0952092533317]
大規模言語モデル(LLM)は、高品質な人間によるテキストに非常に近い。
既存の検出ツールは、機械が生成したテキストと人間によるテキストしか区別できない。
本稿では,モデル固有,セキュア,効率的,拡張可能な検出ツールであるLLMDetを提案する。
論文 参考訳(メタデータ) (2023-05-24T10:45:16Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - Large Language Models can be Guided to Evade AI-Generated Text Detection [40.7707919628752]
大規模言語モデル(LLM)は様々なタスクにおいて顕著な性能を示し、一般に広く利用されている。
我々は、これらの検出器の脆弱性を評価するために、外部パラフレーズに頼るのではなく、LSMにプロンプトを付与する。
本研究では,検出器を回避するためのプロンプトを自動構築する,代用型In-Contextサンプル最適化手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:03:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。