論文の概要: Ghostbuster: Detecting Text Ghostwritten by Large Language Models
- arxiv url: http://arxiv.org/abs/2305.15047v1
- Date: Wed, 24 May 2023 11:37:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 16:26:01.662125
- Title: Ghostbuster: Detecting Text Ghostwritten by Large Language Models
- Title(参考訳): Ghostbuster: 大きな言語モデルで書かれたテキストゴーストを検出する
- Authors: Vivek Verma, Eve Fleisig, Nicholas Tomlin, Dan Klein
- Abstract要約: 本稿では,AI生成テキストを検出するシステムであるGhostbusterを紹介する。
我々の手法は、文書をより弱い言語モデルに渡すことで機能する。
検出ベンチマークとして、人間とAIが生成したテキストの3つの新しいデータセットをリリースする。
- 参考スコア(独自算出の注目度): 31.645106398429274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Ghostbuster, a state-of-the-art system for detecting
AI-generated text. Our method works by passing documents through a series of
weaker language models and running a structured search over possible
combinations of their features, then training a classifier on the selected
features to determine if the target document was AI-generated. Crucially,
Ghostbuster does not require access to token probabilities from the target
model, making it useful for detecting text generated by black-box models or
unknown model versions. In conjunction with our model, we release three new
datasets of human and AI-generated text as detection benchmarks that cover
multiple domains (student essays, creative fiction, and news) and task setups:
document-level detection, author identification, and a challenge task of
paragraph-level detection. Ghostbuster averages 99.1 F1 across all three
datasets on document-level detection, outperforming previous approaches such as
GPTZero and DetectGPT by up to 32.7 F1.
- Abstract(参考訳): 本稿では,AI生成テキストを検出する最先端システムであるGhostbusterを紹介する。
提案手法は,弱い言語モデルを通じて文書を渡し,その特徴の可能な組み合わせについて構造化検索を行い,選択した特徴の分類器を訓練して,対象文書がai生成であるかどうかを判定する。
重要なのは、Ghostbusterはターゲットモデルからトークンの確率にアクセスする必要がないため、ブラックボックスモデルや未知のモデルバージョンによって生成されたテキストを検出するのに役立つ。
私たちのモデルと合わせて,複数のドメイン(学生エッセイ,創造的フィクション,ニュース)とタスク設定(文書レベル検出,著者識別,段落レベル検出の課題課題)をカバーする,人間とaiが生成したテキストの3つの新しいデータセットを検出ベンチマークとしてリリースした。
Ghostbusterは、文書レベルの検出で3つのデータセットの平均99.1 F1であり、GPTZeroやDectorGPTといった従来のアプローチを最大32.7 F1で上回っている。
関連論文リスト
- Imitate Before Detect: Aligning Machine Stylistic Preference for Machine-Revised Text Detection [39.62360229183229]
大規模言語モデル (LLM) はテキスト生成に革命をもたらした。
機械生成テキストの検出はますます困難になっている。
ImBD(Imitate Before Detect)アプローチを提案する。
次に、テスト対象のテキストの分布とマシンスタイルの分布を比較し、そのテキストが機械修正されたかどうかを判定する。
論文 参考訳(メタデータ) (2024-12-11T03:17:14Z) - RKadiyala at SemEval-2024 Task 8: Black-Box Word-Level Text Boundary Detection in Partially Machine Generated Texts [0.0]
本稿では,与えられたテキストのどの部分が単語レベルで生成されたかを特定するための信頼性の高いアプローチをいくつか紹介する。
本稿では,プロプライエタリシステムとの比較,未確認領域におけるモデルの性能,ジェネレータのテキストの比較を行う。
その結果,検出能の他の側面との比較とともに,検出精度が著しく向上した。
論文 参考訳(メタデータ) (2024-10-22T03:21:59Z) - Detecting Machine-Generated Long-Form Content with Latent-Space Variables [54.07946647012579]
既存のゼロショット検出器は主に、現実世界のドメインシフトに弱いトークンレベルの分布に焦点を当てている。
本稿では,イベント遷移などの抽象的要素を機械対人文検出の鍵となる要因として組み込んだ,より堅牢な手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T18:42:09Z) - Multiscale Positive-Unlabeled Detection of AI-Generated Texts [27.956604193427772]
短文検出の難しさに対処するため,MPUトレーニングフレームワークを提案する。
MPU法は、長いAI生成テキストの検出性能を向上し、言語モデル検出器の短文検出を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-29T15:25:00Z) - Smaller Language Models are Better Black-box Machine-Generated Text
Detectors [56.36291277897995]
小型で部分的に訓練されたモデルは、より優れたユニバーサルテキスト検出器である。
検出器とジェネレータが同一データでトレーニングされたかどうかが検出成功にとって重要でないことが判明した。
例えば、OPT-125Mモデルは、ChatGPT世代を検出するのにAUCが0.81であり、GPTファミリーのより大きなモデルであるGPTJ-6BはAUCが0.45である。
論文 参考訳(メタデータ) (2023-05-17T00:09:08Z) - Paraphrasing evades detectors of AI-generated text, but retrieval is an
effective defense [56.077252790310176]
本稿では,パラフレーズ生成モデル(DIPPER)を提案する。
DIPPERを使って3つの大きな言語モデル(GPT3.5-davinci-003)で生成されたテキストを言い換えると、透かしを含むいくつかの検出器を回避できた。
我々は,言語モデルAPIプロバイダによって維持されなければならない,意味論的に類似した世代を検索するシンプルなディフェンスを導入する。
論文 参考訳(メタデータ) (2023-03-23T16:29:27Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。