論文の概要: AdaDetectGPT: Adaptive Detection of LLM-Generated Text with Statistical Guarantees
- arxiv url: http://arxiv.org/abs/2510.01268v1
- Date: Mon, 29 Sep 2025 10:04:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.774118
- Title: AdaDetectGPT: Adaptive Detection of LLM-Generated Text with Statistical Guarantees
- Title(参考訳): AdaDetectGPT:統計的保証付きLLMテキストの適応検出
- Authors: Hongyi Zhou, Jin Zhu, Pingfan Su, Kai Ye, Ying Yang, Shakeel A O B Gavioli-Akilagun, Chengchun Shi,
- Abstract要約: テキストが人間によって作成されているか,あるいは大言語モデル(LLM)によって作成されているかを決定する問題について検討する。
既存のアートロジットに基づく検出器は、所定のソースLLMの分布関数を用いて評価された観測テキストの対数確率から得られた統計値を利用する。
AdaDetectGPTは、ロジットベースの検出器の性能を高めるために、トレーニングデータから証人関数を適応的に学習する新しい分類器である。
- 参考スコア(独自算出の注目度): 12.122798309971316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of determining whether a piece of text has been authored by a human or by a large language model (LLM). Existing state of the art logits-based detectors make use of statistics derived from the log-probability of the observed text evaluated using the distribution function of a given source LLM. However, relying solely on log probabilities can be sub-optimal. In response, we introduce AdaDetectGPT -- a novel classifier that adaptively learns a witness function from training data to enhance the performance of logits-based detectors. We provide statistical guarantees on its true positive rate, false positive rate, true negative rate and false negative rate. Extensive numerical studies show AdaDetectGPT nearly uniformly improves the state-of-the-art method in various combination of datasets and LLMs, and the improvement can reach up to 58%. A python implementation of our method is available at https://github.com/Mamba413/AdaDetectGPT.
- Abstract(参考訳): 本研究では,テキストが人間によって作成されているか,あるいは大言語モデル(LLM)によって作成されているかを決定する問題について検討する。
既存の最先端ロジットに基づく検出器は、所定のソースLLMの分布関数を用いて評価された観測テキストの対数確率から得られた統計値を利用する。
しかし、ログの確率のみに依存することは、準最適である。
AdaDetectGPTは、ロジットベースの検出器の性能を高めるために、トレーニングデータから証人関数を適応的に学習する新しい分類器である。
我々は、その真正率、偽正率、真負率、偽負率に関する統計的保証を提供する。
大規模な数値研究により、AdaDetectGPTはデータセットとLLMの様々な組み合わせにおいて最先端の手法をほぼ均一に改善し、最大58%まで改善できることが示された。
私たちのメソッドのpython実装はhttps://github.com/Mamba413/AdaDetectGPTで公開されています。
関連論文リスト
- Pretraining Data Detection for Large Language Models: A Divergence-based Calibration Method [108.56493934296687]
本研究では,乱数から発散する概念に触発された偏差に基づくキャリブレーション手法を導入し,プリトレーニングデータ検出のためのトークン確率のキャリブレーションを行う。
我々は,中国語テキスト上でのLLMの検出手法の性能を評価するために,中国語のベンチマークであるPatentMIAを開発した。
論文 参考訳(メタデータ) (2024-09-23T07:55:35Z) - DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability
Curvature [143.5381108333212]
大規模な言語モデルからサンプリングされたテキストは、モデルのログ確率関数の負の曲率領域を占有する傾向にあることを示す。
次に、与えられたLLMから通路が生成されるかどうかを判断するための新しい曲率ベースの基準を定義する。
我々は、モデルサンプル検出のための既存のゼロショット法よりもディテクターGPTの方が識別性が高いことを発見した。
論文 参考訳(メタデータ) (2023-01-26T18:44:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。