論文の概要: GPT Paternity Test: GPT Generated Text Detection with GPT Genetic
Inheritance
- arxiv url: http://arxiv.org/abs/2305.12519v1
- Date: Sun, 21 May 2023 17:26:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 19:54:44.769521
- Title: GPT Paternity Test: GPT Generated Text Detection with GPT Genetic
Inheritance
- Title(参考訳): GPTパタニティテスト:GPT遺伝遺伝情報を用いたGPT生成テキスト検出
- Authors: Xiao Yu, Yuang Qi, Kejiang Chen, Guoqiang Chen, Xi Yang, Pengyuan Zhu,
Weiming Zhang and Nenghai Yu
- Abstract要約: GPTパタニティテスト(GPT-Pat)を導入する。
原文と生成された再回答テキストとの類似性を比較することにより、本文が機械生成されているか否かを判定することができる。
提案手法は4つの一般化テストセットで平均94.57%の精度を達成し, 最先端のRoBERTa法を12.34%上回った。
- 参考スコア(独自算出の注目度): 89.97709633381172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) can generate texts that carry the risk of
various misuses, including plagiarism, planting fake reviews on e-commerce
platforms, or creating fake social media postings that can sway election
results. Detecting whether a text is machine-generated has thus become
increasingly important. While machine-learning-based detection strategies
exhibit superior performance, they often lack generalizability, limiting their
practicality. In this work, we introduce GPT Paternity Test (GPT-Pat), which
reliably detects machine-generated text across varied datasets. Given a text
under scrutiny, we leverage ChatGPT to generate a corresponding question and
provide a re-answer to the question. By comparing the similarity between the
original text and the generated re-answered text, it can be determined whether
the text is machine-generated. GPT-Pat consists of a Siamese network to compute
the similarity between the original text and the generated re-answered text and
a binary classifier. Our method achieved an average accuracy of 94.57% on four
generalization test sets, surpassing the state-of-the-art RoBERTa-based method
by 12.34%. The accuracy drop of our method is only about half of that of the
RoBERTa-based method when it is attacked by re-translation and polishing.
- Abstract(参考訳): 大規模言語モデル(LLM)は、盗用、eコマースプラットフォームへの偽レビューの植え付け、選挙結果の妨げとなる偽のソーシャルメディア投稿など、さまざまな誤用のリスクを負うテキストを生成することができる。
テキストが機械生成であるかどうかを検出することがますます重要になっている。
機械学習に基づく検出戦略は優れた性能を示すが、しばしば汎用性が欠如し、実用性が制限される。
本稿では,様々なデータセットにまたがる機械生成テキストを確実に検出するgpt-pat(gpt paternity test)を提案する。
調査対象のテキストが与えられた場合、ChatGPTを利用して対応する質問を生成し、質問に対する再回答を提供する。
原文と生成した再合成テキストの類似性を比較することにより、原文が機械生成であるか否かを判定することができる。
GPT-Patは、元のテキストと生成された再回答テキストの類似性を計算するためのシームズネットワークとバイナリ分類器で構成される。
提案手法は, 4つの一般化テストセットの平均精度を94.57%, 最先端のRoBERTa法を12.34%上回った。
本手法の精度低下は,再翻訳および研磨による攻撃を受けた場合のRoBERTa法の半分程度に過ぎなかった。
関連論文リスト
- Unveiling Large Language Models Generated Texts: A Multi-Level Fine-Grained Detection Framework [9.976099891796784]
大型言語モデル (LLM) は文法の修正、内容の拡張、文体の改良によって人間の書き方を変えてきた。
既存の検出方法は、主に単一機能分析とバイナリ分類に依存しているが、学術的文脈においてLLM生成テキストを効果的に識別することができないことが多い。
低レベル構造, 高レベル意味, 深層言語的特徴を統合することで, LLM生成テキストを検出する多レベルきめ細粒度検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-18T07:25:00Z) - Detecting Machine-Generated Long-Form Content with Latent-Space Variables [54.07946647012579]
既存のゼロショット検出器は主に、現実世界のドメインシフトに弱いトークンレベルの分布に焦点を当てている。
本稿では,イベント遷移などの抽象的要素を機械対人文検出の鍵となる要因として組み込んだ,より堅牢な手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T18:42:09Z) - Who Wrote This? The Key to Zero-Shot LLM-Generated Text Detection Is GECScore [51.65730053591696]
単純だが効果的なブラックボックスゼロショット検出手法を提案する。
人文テキストは典型的には LLM 生成テキストよりも文法上の誤りを多く含んでいる。
提案手法は平均98.7%のAUROCを達成し,パラフレーズや逆行性摂動攻撃に対する強い堅牢性を示した。
論文 参考訳(メタデータ) (2024-05-07T12:57:01Z) - LLM-Detector: Improving AI-Generated Chinese Text Detection with
Open-Source LLM Instruction Tuning [4.328134379418151]
既存のAI生成テキスト検出モデルでは、ドメイン内のオーバーフィットが難しくなる。
LLM-Detectorは文書レベルと文レベルのテキスト検出のための新しい手法である。
論文 参考訳(メタデータ) (2024-02-02T05:54:12Z) - DetectGPT-SC: Improving Detection of Text Generated by Large Language
Models through Self-Consistency with Masked Predictions [13.077729125193434]
既存の検出器は、人間が生成したテキストとAI生成したテキストの間に分配ギャップがあるという仮定に基づいて構築されている。
また,ChatGPTのような大規模言語モデルは,テキスト生成や継続において強い自己整合性を示すことがわかった。
マスク付き予測を用いた自己整合性に基づくAI生成テキストの検出手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:23:10Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - Smaller Language Models are Better Black-box Machine-Generated Text
Detectors [56.36291277897995]
小型で部分的に訓練されたモデルは、より優れたユニバーサルテキスト検出器である。
検出器とジェネレータが同一データでトレーニングされたかどうかが検出成功にとって重要でないことが判明した。
例えば、OPT-125Mモデルは、ChatGPT世代を検出するのにAUCが0.81であり、GPTファミリーのより大きなモデルであるGPTJ-6BはAUCが0.45である。
論文 参考訳(メタデータ) (2023-05-17T00:09:08Z) - DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability
Curvature [143.5381108333212]
大規模な言語モデルからサンプリングされたテキストは、モデルのログ確率関数の負の曲率領域を占有する傾向にあることを示す。
次に、与えられたLLMから通路が生成されるかどうかを判断するための新しい曲率ベースの基準を定義する。
我々は、モデルサンプル検出のための既存のゼロショット法よりもディテクターGPTの方が識別性が高いことを発見した。
論文 参考訳(メタデータ) (2023-01-26T18:44:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。